Skip to content

Latest commit

 

History

History
51 lines (45 loc) · 5.01 KB

KNOU_머신러닝_정리_20231205.md

File metadata and controls

51 lines (45 loc) · 5.01 KB

요약 부분 정리

챕터 1

1. 머신러닝의 개념

  • 인공지능 분야의 구조 : 인공지능 (강인공지능, 약인공지능) > 머신러닝 > 딥러닝
  • 인공지능 : 컴퓨터 과학에 속한 연구 분야로, 인간의 지능을 모방하여 문제해결을 위해 사람처럼 학습하고 이해하는 기계를 만드는 분야
  • 머신러닝 : 인공지능에 속한 연구 분야로, 어떠한 문제를 자동으로 일반화하고 해결하는 통계적 알고리즘을 만드는 분야
  • 딥러닝 : 심층 신경망을 이용하여 데이터를 분석하는 학습에 초점을 둔 머신러닝 방법

2. 머신러닝의 처리 과정

  • 학습 단계와 추론 단계로 구성
  • 학습 단계 : 주어진 데이터에 대한 분석을 통해 원하는 입출력의 관계를 알려주는 매핑 함수(결정함수)를 찾는 과정
  • 추론 단계 : 학습을 통해 찾은 매핑 함수를 새롭게 주어지는 실제 데이터에 적용하여 결과를 얻는 과정

3. 머신러닝의 기본 요소

  • 하나의 데이터는 $n$ 차원의 열벡터 $\textbf{x} = [x_1, x_2, ..., x_n]^T$ 로 표현하며, 데이터 처리는 벡터 연산으로 정의됨
  • 전체 데이터 집합이 이루는 분포 특성을 고려하여 특징을 추출하고 학습을 수행하는 것이 중요함
  • 특징 추출 : 데이터에서 불필요한 정보를 제거하고 데이터 처리를 위한 핵심적 정보인 특징을 얻는 것
  • 학습 시스템 : 데이터로부터 학습을 통해 추출하고자 하는 정보를 표현하는 시스템
  • 목적 함수 : 주어진 데이터 집합을 이용하여 학습 시스템이 달성해야 하는 목표를 기계가 알 수 있는 수학적 함수로 정의한 것
  • 오차 함수 : 학습 시스템의 출력과 원하는 출력의 차이(오차)로 정의되는 목적 함수
  • 성능 평가 기준 : 학습 오차(학습 데이터 집합을 대상으로 계산된 오차), 테스트 오차(테스트 데이터 집합에 대한 오차), 일반화 오차(관찰될 수 있는 모든 데이터를 대상으로 하는 오차)
  • 교차검증법 : 전체 데이터를 여러 집합으로 나누고 각 집합에 대한 오차를 비교함으로 일반화 오차를 계산하는 방법

4. 머신러닝에서의 주제

  • 머신러닝이 다루는 주제 : 분류, 회귀, 군집화, 특징추출
  • 분류 : 입력 데이터가 어떤 부류(클래스)에 속하는지를 자동으로 판단하는 문제
    • 학습 데이터는 입력 데이터와 클래스 레이블의 쌍으로 구성됨
  • 회귀 : 학습을 통해 입력 변수와 원하는 출력 변수 사이의 매핑 관계를 분석하고 예측하는 것. 출력은 연속적인 실수값임
  • 군집화 : 주어지는 클래스 정보 없이 단순히 하나의 덩어리로 이루어진 데이터를 받아서, 데이터의 성질 또는 분포 특성을 분석하여 임의로 복수 개의 그룹으로 나누는 것

5. 학습 시스템 관련 개념

  • 머신러닝의 유형 : 지도 학습, 비지도 학습, 강화 학습 등
  • 지도 학습(교사 학습) : 학습할 때 목표 출력값을 함께 제공하는 방식. 분류와 회귀 문제에 적합한 유형임
  • 비지도 학습(비교사 학습) : 학습할 때 목표 출력값이 제공되지 않으며 입력 데이터가 이루는 분포의 특성으로부터 패턴을 찾는 방식. 군집화 문제에 적합한 유형임.
  • 강화 학습 : 어떤 환경 안에서 정의된 에이전트가 현재의 상태를 인식하여, 선택 가능한 행동들 중 보상을 최대화하는 행동 혹은 행동 순서를 선택하는 방법.
  • 과다적합 : 학습 시스템이 학습 데이터에 대해서만 지나치게 적합한 형태로 결정 경계를 형성하여 오히려 일반화 성능이 떨어지는 현상

챕터 2

1. 벡터

  • 벡터의 표기 : 벡터는 일반적으로 굵은 글씨체의 소문자 $\mathbf{x}$ 로 표시되거나 또는 오른쪽 방향 화살표가 위에 놓인 이탈릭 글씨체의 소문자 $\vec{x}$ 로 표시됨.
  • 벡터가 동일하다 : 두 벡터의 각 원소가 같은 경우를 뜻 함
  • 기본 연산 : 벡터합, 벡터차, 상수곱
  • 표준 단위 벡터(Standard Unit Vector) : $n$ 차원 공간에서 각 좌표축과 평행한 단위 벡터로, $k$ 번째 요소 값을 $1$ 로 지정함으로 방향을 표현함.
  • L2 노름(L2 Norm) : 유클리디언 공간에서 $n$ 차원 벡터의 크기를 절댓값으로 나타내어 일반화하는 함수
    • $\Vert \mathbf{x} \Vert := \sqrt{\sum_{i=1}^n x_{i}^{2}} = \sqrt{\mathbf{x}\cdot\mathbf{x}}$
  • 벡터의 정규화 : 벡터를 그 노름으로 나눔으로 벡터를 동일한 방향을 가진 단위벡터로 변환하는 방식
    • $\hat{\mathbf{x}} = \frac{\mathbf{x}}{\Vert\mathbf{x}\Vert}$
  • 내적(Dot Product) / 스칼라곱 : $\mathbf{x} \cdot \mathbf{y} = \mathbf{x}^{T}\mathbf{y} = \sum_{i=1}^2 x_{i}y_{i} = \Vert \mathbf{x} \Vert \Vert \mathbf{y} \Vert \cos\theta$
    • $\theta$ 는 두 벡터 사잇각의 크기
  • 직교 벡터(Orthogonal Vector) : 서로 수직인 두 벡