반응형
SMALL

분류 전체보기 143

[궁동왕족발보쌈] 1주차 느낀점 (2023.01.03.)

느낀 점 - 평소에 생각지 못했던 인공지능 윤리에 대해 다시 한 번 생각하는 시간을 가질 수 있었다. 단순히 모델의 정확도만 높이는 것이 아닌 윤리와 신뢰성 문제를 의식해가며 인공지능을 개발하고, 사용해야 할 것 같다는 생각을 했다. 또한 최근에 문제가 되던 생성형 AI에 대한 학습물로서의 저작권 등에 대해 깊이 생각할 수 있는 계기가 되었다.

[기계학습/ML] Deep Neural Networks

Deep Neural networks (DNN) Neural Network에 Deep을 붙인 이유는 hidden layer의 수를 많이 두었기 때문이다. hidden layer를 많이 둬 더 많은 최적화 업데이트 대상이 되는 파라미터를 두고 더 복잡한 형태로 input과의 관계를 모델링하는 것이 목적이다. 따라서 깊은 네트워크의 구조를 가져서 DNN이라고 부르며 DNN 기반의 어떤 ML 작업을 Deep Learning라고 한다. Architecture design 여러 개의 hidden layer를 두는 이유는 capacity를 높이기 위함이다. 즉, input과 output의 관계를 잘 나타낼 수 있다. Universal approximation theorem은 하나의 hidden layer와 여러 개..

[기계학습/ML] Neural Network

Neural networks (NN) Neuron은 우리 몸의 신경 전달 물질이다. NN은 이러한 뉴런을 모방하여 입력이 들어왔을 때, 입력이 각각의 뉴런을 통과하는데 통과하면서 어떤 weight를 곱하게 되고, 곱한 값이 일정 값(threshold) 이상인 경우 node가 activate되어 다음으로 값을 전달하고 작은 값은 무시한다. Classification problem 이진분류 문제를 통해 예를 들어보자. 위 사진과 같이 어떤 선을 기준으로 두 개의 클래스를 분류할 수 있으면 linear seperate를 가진다고 한다. 따라서 이러한 어떤 linear 함수를 통해 두 클래스가 쉽게 분리되는 문제에 대해 함수를 어떻게 둘 것인지에 대한 고민을 할 수 있다. 함수를 g라고 하면 이 g는 x1과 x..

[기계학습/ML] Ensemble Method

Bias-variance dilemma 어떤 하나의 문제를 풀이할 때 여러 가지 모델을 사용할 수 있다. 여러 가지 모델을 사용할 때 기본적으로 트레이닝 데이터를 핸덤하게 추출하여, 각 모델을 학습시킬 수 있다. 즉, 1,000개의 데이터에서 랜덤하게 300개의 데이터를 추출하여 하나의 모델을 만들고, 또 랜덤하게 300개의 데이터를 추출하여 두 번째 모델을 만드는 랜덤한 샘플링을 해주면 작은 데이터를 보지만 더 많은 모델을 만들어 줄 수 있다. 어떤 데이터가 선택되느냐에 따라 다른 모델이 학습이 되는데, 이러한 관점으로 deterministic한(결정적인) 알고리즘이 아니라, Stochastic한(확률적인) 알고리즘의 형태를 띨 수 있다. - Bias 실제값과 예상값의 차이로 아래의 식으로 나타낼 수 ..

[기계학습/ML] Decision Tree

Decision Tree introduction Decision Tree는 나무 결정 트리, 또는 DT라고 한다. 어떤 결정 분류 문제에서 분류에 대한 결정을 내리기 위해 나무 모양에서 계속해서 분기를 진행한다. 가장 쉽게 분류를 할 수 있는 방법은 if문이다. 일반적인 프로그램에서는 if문의 조건을 프로그래머가 설정해주지만, DT는 데이터에 대한 feature를 계산하며 조건을 학습한다. 프로그램과 DT의 차이점은 위와 같다. 하지만 기본적으로는 IF-THEN 규칙을 적용한다고 생각하면 된다. DT의 특징 - Recursive partitioning 위 사진과 같이 반복적으로 partitioning을 수행한다. 각 feature에 대해 조건을 설정하고 해당 조건을 충족하면 x1, 충족하지 않으면 x2라..

반응형
LIST