728x90
반응형
SMALL

KG_KAIROS/DeepLearning 4

[DeepLearning] Transfer learning models, Kerras

오늘 학습 내용 소개!!전이 학습 (Transfer Learning):전이 학습은 기존에 학습된 모델의 지식을 활용하여 새로운 작업에 적용하는 기법입니다.예를 들어, VGG16과 같은 사전 훈련된 모델을 사용하여 초기 가중치를 가져오고, 그 다음 새로운 데이터셋에 맞게 모델을 미세 조정(fine-tuning)할 수 있습니다.이미지 데이터 전처리 및 증감 (Data Preprocessing & Augmentation):이미지 데이터를 사용하기 전에 전처리 과정이 필요합니다. 이는 이미지 크기 조정, 정규화, 밝기 조절 등을 포함합니다.증감은 데이터셋을 더 다양하게 만들기 위해 이미지를 변형하는 기법입니다. 회전, 반전, 확대/축소 등이 있습니다.웹에서 이미지를 다운로드하고 스레딩을 사용하여 효율적으로 처리..

[DeepLearing] Cancer 양성/음성 분류 모델

Precision recall and f1 score(sklearn.matirxs.classification_report())  모델의 성능을 측정하는 데 있어 정밀도(Precision), 재현율(Recall), 그리고 **F1 점수(F1 Score)**는 중요한 지표입니다. 이 지표들은 특히 이진 분류 문제에서 모델의 성능을 평가하는 데 유용합니다.정밀도 (Precision)정밀도는 모델이 양성으로 예측한 샘플 중 실제로 양성인 샘플의 비율을 나타냅니다. 즉, 정밀도 = TP / (TP + FP), 여기서 TP는 True Positive, FP는 False Positive입니다.재현율 (Recall)재현율은 실제 양성 샘플 중 모델이 양성으로 올바르게 예측한 샘플의 비율을 나타냅니다. 즉, 재현율 = ..

[DeepLearning] 손실 함수(Loss Functions), Padding, Harr Cascade (얼굴 검출)

network 문제로 어제 학습한거 리뷰!! x = np.array([[1.0,0.5]])W1 = np.array([[0.1,0.3,0.5],[0.2,0.4,0.6]])# A1을 계산하세요B1 = np.array([[0.1,0.2,0.3]])# A1을 계산하세요 # sigmoid함수를 적용하여 Z1을 구하세요W2 = np.array([[0.1, 0.4 ], [0.2, 0.5], [0.3, 0.6]])    # (3, 2)B2 = np.array([[0.1, 0.2]])#  A2  &  sigmoid 함수를 적용하여 Z2를 구하세요W3 = np.array([[0.1,0.3],[0.2,0.4]])B3 = np.array([0.1,0.2])# 항등함수 (입력 그대로 출력하기)를 이용하여 아웃풋 y를 구하세요 ..

[DeepLearning] ReLU와 Softmax 그리고 NN single node

신경망의 활성화 함수: ReLU와 Softmax신경망에서 활성화 함수는 각 노드의 출력을 결정하는 중요한 역할을 합니다.이번 포스트에서는 hidden layer의 활성화 함수로 **ReLU (Rectified Linear Unit)**를,output layer의 활성화 함수로 softmax를 사용하는 경우에 대해 정리해보겠습니다.ReLU (Rectified Linear Unit)정의: ReLU는 입력 값이 양수일 경우 그대로 출력하고, 음수일 경우 0을 출력하는 함수입니다.수식:f(x)=max(0,x)특징: 계산이 간단하고, 음수 값을 0으로 만들어서 신경망의 비선형성을 유지하면서도 학습 속도를 빠르게 합니다. 이는 gradient vanishing 문제를 완화하는 데 도움이 됩니다.Softmax정의: ..

728x90
반응형
LIST