✨ AI
-
[BERT] BERT에 대해 쉽게 알아보기2 - colab으로 BERT Pretraining(수정)✨ AI/NLP 2020. 3. 26. 16:14
** 이전 포스팅 코랩 노트북을 따라하시다가 오류가 난다는 분이 많아서, 코드를 쭉 수정하였습니다. ● BERT모델로 대량의 코퍼스 사전훈련 시키기 구글이 만든 사전훈련 모델 'BERT'로 대량의 코퍼스를 가지고 사전훈련을 시키는 방법을 포스팅 하도록 하겠습니다. 그리고 이 다음 포스팅에서는 사전훈련된 모델로 NLP모델 Task에 전이학습 시키는 방법을 포스팅 할 예정입니다. BERT는 위키디피아 같은 대량의 코퍼스를 사용해서 사전훈련을 시키고 언어의 기본적인 패턴을 이해한 워드임베딩을 추출해냅니다. 이렇게 사전훈련을 통해 생성된 임베딩으로 새로운 문제에 적용하는 전이학습(transfer learning)을 수행하여 적은데이터로 기존 ML, DL모델에 적용하여 빠르게 학습이 가능합니다. BERT가 무엇인..
-
[BERT] BERT에 대해 쉽게 알아보기1 - BERT는 무엇인가, 동작 구조✨ AI/NLP 2020. 2. 12. 12:04
● 언어모델 BERT BERT : Pre-training of Deep Bidirectional Trnasformers for Language Understanding 구글에서 개발한 NLP(자연어처리) 사전 훈련 기술이며, 특정 분야에 국한된 기술이 아니라 모든 자연어 처리 분야에서 좋은 성능을 내는 범용 Language Model입니다. 11개 이상의 자연어처리 과제에서 BERT가 최첨단 성능을 발휘한다고 하지만 그 이유는 잘 알려져 있지 않다고 합니다. 하지만 BERT는 지금까지 자연어처리에 활용하였던 앙상블 모델보다 더 좋은 성능을 내고 있어서 많은 관심을 받고 있는 언어모델 입니다. ○ 그래서 BERT가 과연 무엇인가. 처음에 BERT라는 모델을 접하였을 때, 단지 LSTM, CNN, 앙상블 모..
-
[딥러닝] Bias-Variance Tradeoff 와 앙상블✨ AI 2020. 1. 2. 01:19
● Bias-Variance Tradeoff 머신러닝을 이용해 분류기를 만들때, 테스트 하는 과정을 거치며 많은 에러들이 나오게 되는데 이런 에러들을 MSE로 분석해보면 Bias와 Variance의 식으로 정리됩니다. Learning Error = Bias + Variance Bias : 학습된 분류기와 실제 값 사이의 제곱 에러, 정확도와 비슷한 개념 Variance : 학습된 분류기들이 각기 다른 학습셋에 성능의 변화정도가 급하게 변하는지 안정적으로 변하는지를 나타내는 척도 ○ High Variance & Low Bias 모델이 높은 variance와 낮은 bias를 가질 때, 일부는 정확하게 매핑되지만 많은 데이터가 정확하게 예측하지 못합니다. 모델을 너무 tight하게 학습하여 데이터가 조금만 변..
-
[딥러닝] 선형회귀와 로지스틱회귀✨ AI 2019. 12. 22. 21:28
● 회귀(Regression)란? 먼저 '회귀'라는 말은 '한바퀴 돌아 제자리로 돌아가다'라는 뜻입니다. 먼저 회귀(Regression)이라는 용어 때문에 회귀모델을 이해하는데 약간의 혼란이 있을 수 있습니다. 사실 회귀모델에서 회귀의 정확한 의미는 '평균으로의 회귀'라는 뜻이라고 봐도 무방합니다. 데이터의 실측치와 모델의 실측치 사이의 차이, 즉 회귀식에서 오차항에 대한 관측치(잔차)가 평균으로 회귀하는 것이 바로 '회귀' 입니다. 정확한 모델에서는 잔차가 평균 0으로 회귀하게 됩니다. 어째서 '회귀'라고 불리는가? - 회귀 모델과 회귀 분석이란? 회귀모델이란, 어떤 연속성 데이터 x, y의 원인이라고 추정되는 관계를 추정하기 위해 만든 모델을 말합니다. ( y = f(x) ) 그렇게 추정한 관계를 입..