[2023-13] 하버드 100년 전통 말하기 수업
·
📚 Book
제목: 하버드 100년 전통 말하기 수업 저자: 류리나 keyword 감동, 대화, 입장, 전달, 감정, 화, 스위스, 링컨 연설, 7분 관련 자료 게티즈 버그 연설 - 가장 짧은 연설이자 가장 오래 기억될 연설 https://youtu.be/pPZd-HsSDrE 스위스의 군대 - https://www.youtube.com/watch?v=aYI1mmU4Wiw 마크 트웨인 일화 - https://blog.naver.com/stgstg/220394964708 마크 트웨인이 헌금 바구니에서 2달러를 꺼내간 이야기 --- 삼성테크노글라스 삼성테크노글라스(http://stgstg.blog.me )(http://stg7.koreasme.com ) 대표 이동열입니다. 오늘 삼성전자... blog.naver.com
[PEP 703] Making the Global Interpreter Lock Optional in CPython
·
🐍 Python
https://peps.python.org/pep-0703/ [PEP 703 – Making the Global Interpreter Lock Optional in CPython | peps.python.org In CPython, the global interpreter lock protects against corruption of internal interpreter states when multiple threads concurrently access or modify Python objects. For example, if multiple threads concurrently modify the same list, the GIL ensures that peps.python.org](https:/..
Browser templates for Browser In The Browser (BITB) attack
·
🏃 Routine
https://github.com/mrd0x/BITB GitHub - mrd0x/BITB: Browser In The Browser (BITB) Templates Browser In The Browser (BITB) Templates. Contribute to mrd0x/BITB development by creating an account on GitHub. github.com Browser in the Browser Attack = 브라우저 안 브라우저 말 그대로 브라우저 안에 브라우저를 만들어 가짜 로그인 창이나 진짜 홈페이지 처럼 속여 로그인 정보를 탈취하는 기법이다. 사용자는 유사 로그인 창을 의심 없이 로그인 창으로 보고 로그인을 하게 된다. 왜냐? 유사 로그인 창의 도메인 또한 진짜 doma..
The Path to Achieve Ultra-Low Inference Latency With LLaMA 65B on PyTorch/XLA
·
🗣️ Natural Language Processing
BACKGROUND & STATE OF THE ART 자연어 처리(NLP) 영역에서 언어 모델은 과거 입력 토큰의 시퀀스를 사용하여 토큰(예: 단어)을 생성하는 데 사용됩니다. 대용량 언어 모델(Large Language Models, LLMs)은 이 공간에서의 최신 딥러닝 혁신으로, 인간과 유사한 방식으로 텍스트를 생성하기 위해 설계되었습니다. 이러한 모델은 일반적으로 입력 토큰의 큰 시퀀스에 대한 주의를 개선하기 위해 transformer를 사용합니다. LLaMA는 1조 개 이상의 토큰으로 훈련된 강력한 기반 LLM으로, Meta AI에서 오픈 소스로 제공됩니다. LLaMA는 GPT-3, Chinchilla, PaLM과 같은 많은 최고의 모델과 경쟁력을 가지고 있습니다. LLaMA (13B)는 GPT..
[2023-12] 미루기의 기술
·
📚 Book
제목: "미루기의 기술" 저자: 존 페리 keyword To-do list 작성, 미루었을 때 이루어지는 결과를 상상하기, 미루고 있는 자신을 인지하고 해결 방법 떠올리기, 체계적인 미루기, 아침 음악 관련 자료 http://philosophytalk.org/ Philosophy Talk The program that questions everything...except your intelligence. www.philosophytalk.org https://www.youtube.com/watch?v=iZGdEafl4sg
[2023-11] 당신의 인생 이야기
·
📚 Book
제목: 당신의 인생 이야기 저자: 테드창 keyword 바빌로의 탑, 이름=영혼, division by zero, 감정, 경험, 발전의 끝, 현상 이해, 칼리아그노시아(칼리)
[OWASP-LLM] Top 10 List for Large Language Models version 0.1 - (10) Training Data Poisoning
·
🏃 Routine
LLM10:2023 Training Data Poisoning 설명: 훈련 데이터 독점은 공격자가 LLM의 training이나 fine-tunning을 조작해 모델의 보안, 효과성 또는 윤리적 행동을 저해할 수 있는 취약점, 후문, 편향을 도입하는 것입니다. 일반적인 훈련 데이터 독점 문제: LLM에 악의적으로 조작된 훈련 데이터를 통해 후문이나 취약점 도입 LLM에 편향을 주입하여 편향적이거나 부적절한 응답을 생성 세세한 조정 과정을 이용하여 LLM의 보안이나 효과성을 침해 예방 방법: 신뢰할 수 있는 출처에서 훈련 데이터를 얻고 품질을 검증하여 훈련 데이터의 무결성을 보장 잠재적인 취약점이나 편향을 훈련 데이터에서 제거하기 위해 견고한 데이터 정제 및 전처리 기법 구현 LLM의 훈련 데이터와 세세한 ..
[CS324] Introduction
·
👾 Deep Learning
https://stanford-cs324.github.io/winter2022/lectures/introduction/ Introduction Understanding and developing large language models. stanford-cs324.github.io CS324에 오신 것을 환영합니다! 이 과정은 대규모 언어 모델의 이해와 개발에 대한 새로운 강좌입니다. 1. 언어 모델이란 무엇인가요? 2. 간단한 역사 3. 이 강좌가 왜 필요한가요? 4. 이 강좌의 구조 5. 언어 모델이란 무엇인가요? 1. 언어 모델이란 무엇인가요? 언어 모델 (LM)의 클래식한 정의는 토큰 시퀀스에 대한 확률 분포입니다. 토큰 집합 (\sV)가 있다고 가정해 봅시다. 언어 모델 (p)은 각각의 토큰 시퀀..
다했다
'분류 전체보기' 카테고리의 글 목록 (17 Page)