** ACTA 기계학습과 딥러닝 (20시간 과정)** 

(2주, 매주 10시간:  주중 야간 줌수업  3 시간씩   2 회 ,   토   4 시간 대면수업 )

 

대상:  ACTA 기계학습과 딥러닝은 중급 파이썬 수준의 엔지니어들이 기계학습과 딮러닝의 역량을 단기간에 강화하고자 하는 경우에 적합한 과정

 

Machine Learning (10시간)

(1) 기초 개념 (Basics)

Curse of Dimensionality: 차원이 증가하면 데이터가 희소해지고 모델 성능이 떨어질 수 있음

Bias-Variance Tradeoff: 단순모델은 편향, 복잡모델은 분산이 크므로 적절한 균형이 필요함

K-Nearest Neighbors: 가장 가까운 데이터 포인트들을 기준으로 예측하는 비모수 모델

(2) 선형 회귀 (Linear Regresssion)

Least Squares: 예측값과 실제값의 차이를 최소화하는 방식으로 회귀 계수를 추정함

(3) 분류(Classification)

Logistic Regression: 확률 기반 이진 분류 모델로 sigmoid 함수를 사용함

Maximum Likelihood: 관측 데이터를 가장 잘 설명하는 파라미터를 찾는 통계적 추정 방법

(4) Resampling 기법

데이터셋을 학습, 검증, 테스트용으로 나누어 모델의 일반화 성능을 평가함

(5) 모델 선택과 정규화

Ridge/Lasso: 과적합을 막기 위해 모델 복잡도에 패널티를 부여하는 정규화 기법

Forward/Backward Selection: 변수 선택을 통해 모델의 성능과 해석력을 향상시킴

(6) 비선형 기법들 (Non-linear methods)

Tree, SVM: 복잡한 패턴을 잡아내기 위한 결정트리와 마진 최대화 기법

K-Means: 비지도 학습의 대표적 군집 알고리즘으로 데이터를 그룹화함

🤖 

 

Deep Learning (총 10시간)

(1) MLP (다층 퍼셉트론)

다층의 은닉층과 비선형 활성함수를 통해 복잡한 함수 근사를 가능하게 함

(2) 최적화 & Regularization

SGD/ADAM은 모델을 빠르고 안정적으로 수렴시키기 위한 주요 최적화 알고리즘

Early Stopping은 과적합 방지에 사용됨

(3) CNN (합성곱 신경망)

이미지와 같은 구조적 데이터를 효과적으로 처리하며, 이동에 강한 특징 추출에 강점을 가짐

parameter sharing, equivariance to translation, computational benefit, pooling

(4) RNN (순환 신경망)

순차 데이터(예: 텍스트, 시계열)를 처리하며, 장기 의존성 문제를 LSTM으로 극복함

computational graphs, teacher forcing, bidirectional RNN, vanishing & exploding gradients, LSTM

(5) Transformer 구조

query/key/value, attention, masked learning & predictive learning

Attention 메커니즘을 활용하여 긴 문맥도 병렬적으로 처리 가능함

(6) 고급 주제

Generalization과 Representation은 모델의 실제 예측력과 내부 특성 학습을 설명하며, LLM은 이러한 기술의 집약체임