Deep Learning

Image 학습 시 Label 마다 개수가 다르다. Label의 종류가 많고 개수 분포가 한쪽으로 치우쳐져있을 경우 Image가 많은 Label로 model이 판단하게 된다. *이 경우 ImageGenerator를 이용해 균형을 맞춰준다. def balance(train_df, max_samples, min_samples, column, working_dir, image_size): train_df = tr_d train_df = train_df.copy() train_df = trim(train_df, max_samples, min_samples, column) if 'aug' not in os.listdir(): os.mkdir('aug') aug_dir = os.path.join(working_di..
Tensorflow 2.8 모듈에러 *Optimizer 중 가장 널리쓰이는 Adam의 Update시 무한대로 발산하는 것을 쉽게 개선 시킨 Adamax Sol) from tensorflow.python.keras.optimizers import adamax_v2 opt = adamax_v2.Adamax(learning_rate=0.001)
C:\\Program Files\\NVIDIA GPU Computing Toolkit\\CUDA\\v11.2\\bin에 zlibwapi.dll 파일 없어서 생기는 오류이다. [다운로드] https://docs.nvidia.com/deeplearning/cudnn/install-guide/index.html#install-zlib-windows에서 윈도우 버전의 zlibwapi.dll을 설치하면 된다.
https://arxiv.org/pdf/1512.03385.pdf ResNet은 기존의 다층 Layer의 문제점인 Gradien Vanishing(가중치가 0으로 수렴: 기울기 소실)을 개선한 모델이다. 다층 Layer 특성상 가중치를 갱신하면서 원래 가진 값과 갱신 단계가 많아져 원래 값을 잘 찾아가지 못하는 문제가 생긴다. ResNet에서는 잔차를 이용해 Layer의 층을 높이 쌓지 않은 반면 Error는 줄이는 방법을 고안해냈다.
https://www.kaggle.com/datasets/gpiosenka/100-bird-species BIRDS 400 - SPECIES IMAGE CLASSIFICATION 58388Train, 2000 Test, 2000 Validation images 224X224X3 jpg format www.kaggle.com [Birds 400] Test Model List - Resnet - mobilevit
[8일차] 1. Deep Learning의 구조 소개 * Wn(Weight) : 회귀 분석의 회귀 계수와 비슷한 역할을 한다. 회귀 분석의 목적과 동일 하게 변수를 통해 Output을 찾는 식을 구하는 방식이다. 2. 다양한 Optimizer 소개 * 경사하강법(Gradient descent) : - stochastic gradient descent : 값을 하나하나 넣어 갱신하기 때문에 시간이 오래걸린다는 단점이 있다. - Batch gradient descent : Training set data의 가중치 평균을 이용하여 갱신 - Mini Batch : 일부 훈련자료의 무작위 복원 추출하여 Training set data의 가중치 평균을 갱신 3. Learning rate를 조절하는 방식 - ADAM..
- torchvision.models를 통해 model 불러오기 import torchvision.models as models - model 설정 (image clf : resnet34, vgg, alexnet, squeezenet, densenet, googlenet etc) model = models.resnet34(pretrained=False) - model.cuda = model.to(DEVICE) 모델 입력 model = model.cuda # model.to(DEVICE)
torch.nn.Conv2d(in_channels, out_channels, kernel_size, stride=1, padding=0, dilation=1, groups=1, bias=True, padding_mode='zeros') is_channel : 이미지의 채널 수 (ex, color dim) out_channel : Filter의 개수 = Output의 depth kernel_size : Filter의 크기 padding : Convolution이 진행하면서 겹쳐지는 공간을 0으로 채워 연산 수를 동일하게 해준다. stride : 필터 진행 간격
다했다
'Deep Learning' 카테고리의 글 목록 (5 Page)