softmax 3

퍼셉트론과 다층퍼셉트론, 활성화함수

1. 퍼셉트론 - 가장 간단한 형태의 인공신경망 - 입력 값과 해당 가중치의 곱을 모두 더한 값에 편향을 더하고, 이를 활성화 함수로 변환해 이진출력을 생성- 학습 과정에서는 출력값이 실제 값과 다를 경우, 가중치를 조정하는 방식으로 학습이 이루어진다. - 단층 구조로, 선형적으로 분리 가능한 문제를 해결할 수 있었지만, XOR 같은 비선형적으로 분리되는 문제를 해결하지 못하는 한계가 있다. - 같을 땐 0, 다를 땐 1 # 논리 회귀(단층 퍼셉트론)로 AND 문제 풀기 (둘 다 1일 경우에만 1)import torchimport torch.nn as nnimport torch.optim as optimX = torch.FloatTensor([[0, 0], [0, 1], [1, 0], [1, 1]])y..

파이토치로 구현한 논리회귀

1. 논리회귀란?주어진 입력 데이터를 기반으로 두 가지 이상의 범주로 분류하는 지도학습 알고리즘. 주로 이진분류 문제에 사용되고, 입력 변수의 선형 결합을 통해 특정사건이 발생할 확률을 예측. 이 알고리즘은 시그모이드 함수 또는 로지스틱 함수라는 비선형 함수를 사용해 예측값을 0과 1 사이의 확률로 변환한다. 모델의 결과는 일반적으로 특정 임계값을 기준으로 두 범주 중 하나로 분류된다.예 ) 이메일이 스팸인지 아닌지를 판별하거나, 환자의 병 진단 여부를 예측하는 데 사용될 수 있다. 논리회귀는 계산이 비교적 간단하고 해석이 용이해 머신러닝에서 널리 사용되는 알고리즘 * 시그모이드 함수 입력값을 받아서 이를 0~1 값으로 변환하는 수학함수 주로 확률을 예측해야하는 문제에서 사용된다. 논리회귀와 인공신경망..

딥러닝 다중 클래스 분류(Multi‑class Classification), 레이블 원-핫 인코딩, Softmax 출력, Categorical Cross‑Entropy 손실 함수

1. 개요 & 목적 공부시간, 수면시간 이라는 2개의 피처 (x)를 입력으로 -> 불합격(0), 보통(1), 합격(2) 세 등급(y)를 예측하는 다중 클래스 분류 핵심 변화점 1. one-hot 인코딩으로 레이블 확장 2. 출력층 활성화 함수 softmax 3. 손실함수 Categorical Cross‑Entropy2. 주요 기능 - 원-핫 인코딩 : 다중 클래스 분류 문제에서 클래스 레이블을 표현 - 신경망 구성 : 입력 -> 은닉층 -> 출력층으로 연결 - Categorical Cross Entropy : 다중 클래스 분류에 특화된 손실 함수 - softmax 활성화 함수 : 각 클래스에 대한 확률 출력 3. 코드 # 층(layer)을 간단히 순서대로 추가해 모델을 쉽게 구성하게 해주는 클래스fro..

Data Analysis Study 2025.07.20