feature importance와 permutation importance 차이
·
Machine learning
feature importance : 지니계수 기준으로 불순도를 크게 낮추는 기준으로 feature 선정 permutation importance : 특정 feature를 제외했을때 성능차이가 큰걸 기준으로 선 정 https://hwi-doc.tistory.com/entry/Feature-selection-feature-importance-vs-permutation-importance Feature selection : feature importance vs permutation importance 안녕하세요, 오늘은 Feature selection 에 대해 다뤄보려고 합니다! Feature selection은 말 그대로 모델에 사용될 feature를 선택하는 과정입니다. feature가 그냥 많으면 많..
로지스틱회귀 scikit learn 알고리즘 L-BFGS 설명
·
Machine learning
https://wonjun.oopy.io/bea4d310-4103-4948-8993-c12158560fa4 L-BFGS Style transfer 에서 우리가 알던 방법과 다른, 새로운 optimization 방법론이 하나 등장했습니다. wonjun.oopy.io
학습과정에서 결정 경계(Decision boundary)가 어떻게 변하는지 알수 있는 코드
·
Machine learning
https://minsuksung-ai.tistory.com/8 파이썬으로 퍼셉트론 구현하기 대학원 과제에서 퍼셉트론(Perceptron)을 구현하라는 과제를 받았다. 사실 파이썬으로 퍼셉트론을 구현해둔 코드는 많지만 의외로 결정 경계(Decision Boundary)를 표현해주는 코드는 많이 없었다. 그래 minsuksung-ai.tistory.com https://github.com/minsuk-sung/coursework/tree/master/2020_01_deep_learning/hw/hw1 GitHub - minsuk-sung/coursework Contribute to minsuk-sung/coursework development by creating an account on GitHub. g..
앙상블(Ensemble) 하드보팅(Majority/Hard Voting)에서 모델(Model)이 짝수일땐 어떻게 할까?
·
Machine learning
In the cases of a tie, the VotingClassifier will select the class based on the ascending sort order. E.g., in the following scenario classifier 1 -> class 2 classifier 2 -> class 1 the class label 1 will be assigned to the sample. --> 앙상블 모델에서 Hard voting을 택했을 때 아래와 같이 예측하면 그냥 Class 오름차순에 의해서 class 1으로 결정한다는 내용이다. classifier 1 -> class 2 classifier 2 -> class 1 참으로 허술하구나.. 그래도 1:1일 경우에는 확률값으로 한다..
스케일링_방법_장단점_효과_scaler
·
Machine learning
mkjjo.github.io/python/2019/01/10/scaler.html [Python] 어떤 스케일러를 쓸 것인가? * 본 포스트는 개인연구/학습 기록 용도로 작성되고 있습니다. By MK on January 10, 2019 데이터를 모델링하기 전에는 반드시 스케일링 과정을 거쳐야 한다. 스케일링을 통해 다차원의 값들을 비교 분 mkjjo.github.io
scaling 스케일링 정규화 표준화 normalization standardization
·
Machine learning
https://bskyvision.com/849 정규화(normalization)와 표준화(standardization), 머신러닝 성능 향상을 위한 필수 단계 오늘은 꽤 중요한 이야기를 하고자 합니다. 기본적이기 때문에 중요합니다. 이것을 간과하면 성능에 치명적인 영향을 끼치기 때문에 중요합니다. 바로 정규화(normalization)와 표준화(standardization)� bskyvision.com scaling 스케일링 정규화 표준화 normalization standardization https://junklee.tistory.com/18 데이터 스케일링(Data Scaling) 코드 머신러닝을 위한 데이터셋을 정제할 때, 특성별로 데이터의 스케일이 다르다면 어떤 일이 벌어질까요. 예를 들어, ..
Maximum likelihood 개념 잘 설명한 곳
·
Machine learning
likelihood 개념 잘 설명한 곳 https://towardsdatascience.com/probability-concepts-explained-maximum-likelihood-estimation-c7b4342fdbb1 Probability concepts explained: Maximum likelihood estimation Introducing the method of maximum likelihood for parameter estimation towardsdatascience.com
likelihood 가능도 와 확률(probability)의 차이
·
Machine learning
https://jjangjjong.tistory.com/41 확률(probability)과 가능도(likelihood) 그리고 최대우도추정(likelihood maximazation) * 우선 본 글은 유투브 채널StatQuest with Josh Starmer 님의 자료를 한글로 정리한 것 입니다. 만약 영어듣기가 되신다면 아래 링크에서 직접 보시는 것을 추천드립니다. 이렇게 깔끔하게 설명한 자료� jjangjjong.tistory.com