
tensorflow - 분류 문제에서 활성 함수와 손실 함수 설정
분류 문제에서의 활성함수 (Activation Function) Sigmoid 2개의 분류 문제를 다룰 때 쓰는 활성 함수 알려지지 않는 파라미터를 데이터로부터 추정해 0과 1로 분류하는 것 Softmax 3개 이상의 분류 문제를 다룰 때 쓰는 활성 함수 데이터를 0~1사이의 값으로 정규화하여 출력되는 값들의 총 합이 1이 되는 함수 분류 문제에서의 손실함수(Loss Function) binary_crossentropy 2개의 분류 문제를 다룰 때 쓰는 손실 함수 categorical_crossentropy 3개 이상의 분류 문제를 다룰 때 쓰는 손실 함수 원핫 인코딩되어 있는 카테고리컬 데이터에 적용 sparse_categorical_crossentropy 3개 이상의 분류 문제를 다룰 때 쓰는 손실 ..
- AI & ML/Machine Learning (Python)
- · 2022. 6. 13.

Tensorflow - Fashion MNIST
Fashion MNIST MNIST 손으로 쓴 숫자들로 이루어진 대형 데이터베이스 다양한 화상 처리 시스템을 트레이닝하기 위해 일반적으로 사용되는 데이터베이스 Fashion MNIST MNIST가 무엇인지 이해하면 이제 Fashion MNIST도 이해가 쉬울 것이다. 즉, 의류에 대한 데이터베이스를 인공지능이 학습하여 의류를 구분 할 수 있게 하는 라이브러리 예시에 사용 될 데이터프레임 fashion_mnist 데이터 : tf.keras datasets API에 포함(자체적 제공) 10개로 분류된 의류 이미지를 분류하는 인공지능 모델 만들기 데이터프레임 호출 데이터셋은 텐서플로우 라이브러리 자체에 포함 tf.keras.datasets으로 호출 학습/검증을 위한 이미지와 레이블 각각 2개씩 총 4개의 데이..
- AI & ML/Machine Learning (Python)
- · 2022. 6. 13.

Tensorflow - learning rate(학습률)
Learning Rate(학습률) 딥러닝을 할 때 학습률은 적당한 값을 넣어주는 것이 가장 중요, 학습률에 따라 인공지능 성능 좌우 일반적으로 Learning Rate의 값을 0.01로 설정, 필요에 따라 조금씩 조정 학습률 값을 너무 크게 설정 할 경우 지그재그의 방향으로 이상하게 학습하는 오버슈팅(Overshooting) 문제 발생 학습률 값을 너무 적게 설정 할 경우 학습 단계가 너무 많이 필요, 하이퍼 파라미터를 찾는 과정에서 국소 최저치(Local Minima) 현상 발생 국소 최저치(Local Minima) 경사 하강법(gradient descent)을 시도할 때 최적의 해인 전역 최저치(global minima)가 아닌 학습 데이터의 특성으로 인해 국소적으로 낮은 값이 부분적 해(partia..
- AI & ML/Machine Learning (Python)
- · 2022. 6. 13.