[Pytorch] CNN - Conv2D
·
👾 Deep Learning
torch.nn.Conv2d(in_channels, out_channels, kernel_size, stride=1, padding=0, dilation=1, groups=1, bias=True, padding_mode='zeros') is_channel : 이미지의 채널 수 (ex, color dim) out_channel : Filter의 개수 = Output의 depth kernel_size : Filter의 크기 padding : Convolution이 진행하면서 겹쳐지는 공간을 0으로 채워 연산 수를 동일하게 해준다. stride : 필터 진행 간격
GTX 1660 super에 맞는 tensorflow, python, CUDA, Cudnn 버전
·
👾 Deep Learning
[main] gtx 1660 super Python = 3.7.6 tensorflow_version=2.4.0 CUDA = 11.0 cudnn = 8.0.5
버키팅(bucketing)을 이용한 학습 복잡도 해결
·
🗣️ Natural Language Processing
토큰화 진행 후 input shape를 위해 채워주었던 빈 공간들을 사용하지 않고 처음 부터 해당 길이에 맞추어 토큰화 진행한다. 해당 토큰의 시작 점과 끝 지점을 설정해 input shape를 정한다. 짧은 길이의 문장 같은 경우 max_len 까지 빈 공간이 많이 생겨 predict에 큰 영향을 준다. 이러한 문제를 해결하기 위해 버키팅을 사용한다.
Optimizer ( Adam, SGD )
·
👾 Deep Learning
Adam Adam: Adaptive moment estimation Adam = RMSprop + Momentum Momentum : gradient descent 시 최소점을 찾기 위해 모든 스텝을 밟는 것이 아닌 스텝을 건너 뛴다. Stochastic gradient descent(SGD) Adagrad It makes big updates for infrequent parameters and small updates for frequent parameters. For this reason, it is well-suited for dealing with sparse data. The main benefit of Adagrad is that we don’t need to tune the learning..
[Jupyter Notebook] 주피터 노트북 셀 스크립트 너비 조절(cell script option), 판다스 너비 조절
·
🐍 Python
from IPython.core.display import display, HTML display(HTML("")) import pandas as pd # 보기 너비 증가 pd.set_option('display.max.colwidth', 200)
[Data Crawling] Spongebob - 1
·
🐍 Python
spongebob.fandom.com/wiki/Encyclopedia_SpongeBobia Encyclopedia SpongeBobia Encyclopedia SpongeBobia is the SpongeBob SquarePants encyclopedia that anyone can edit, and we need your help! We chronicle everything SpongeBob SquarePants, which is a show that follows SpongeBob, a little yellow sponge, whose adventures have captivated spongebob.fandom.com 스폰지밥의 대사를 추출하기 위해 Season별 타이틀과 그 대사가 담긴 사이트를 ..
[CNN] 합성곱 신경망 (feat. Learning Word Vectors for Sentiment Analysis)
·
🗣️ Natural Language Processing
ai.stanford.edu/~amaas/data/sentiment/ Sentiment Analysis Publications Using the Dataset Andrew L. Maas, Raymond E. Daly, Peter T. Pham, Dan Huang, Andrew Y. Ng, and Christopher Potts. (2011). Learning Word Vectors for Sentiment Analysis. The 49th Annual Meeting of the Association for Computational Linguistics (A ai.stanford.edu 스탠퍼드 대학교 인공지능 연구팀의 원본 자료로 classification 진행 import glob import os f..
[doc2vec] 문서 유사도 추정
·
🗣️ Natural Language Processing
word2vec의 개념을 문장이나 문서 전체로 확장시켜 활용한다. 기존 단어들에 근거해서 다음 단어를 예측함으로써 단어 벡터들을 학습한다는 착안을 문장이나 문단, 문서 벡터의 학습으로 확장할 수 있다. doc2vec은 점진적 학습이 가능하다. 훈련을 마친 모형에 새로운 문서들을 입력해서 새로운 문서 벡터들을 생성한다. 추론 단계에서 알고리즘은 동결된 단어벡터 행렬과 해당 가중치들로 새 문서 벡터들을 계산해서 문서 행렬에 추가한다. 문서 벡터 훈련 genism 패키지에있는 doc2vec을 위한 함수들을 이용해 문서 벡터 생성 사용할 cpu 코어 수 import multiprocessing num_cores = multiprocessing.cpu_count() genism의 doc2vec과 말뭉치 문서 벡터..
다했다