[OWASP-LLM] Top 10 List for Large Language Models version 0.1 - (8) Insufficient Access Controls
Β·
πŸƒ Routine
LLM08:2023 λΆ€μ μ ˆν•œ μ ‘κ·Ό μ œμ–΄ μ„€λͺ…: λΆ€μ μ ˆν•œ μ ‘κ·Ό μ œμ–΄λŠ” μ ‘κ·Ό μ œμ–΄λ‚˜ 인증 λ©”μ»€λ‹ˆμ¦˜μ΄ μ˜¬λ°”λ₯΄κ²Œ κ΅¬ν˜„λ˜μ§€ μ•Šμ•„, 무단 μ‚¬μš©μžκ°€ LLMκ³Ό μƒν˜Έμž‘μš©ν•˜κ³  취약점을 μ΄μš©ν•  수 μžˆλŠ” 상황을 λ§ν•©λ‹ˆλ‹€. 일반적인 μ ‘κ·Ό μ œμ–΄ 문제: LLM에 λŒ€ν•œ μ—„κ²©ν•œ 인증 μš”κ΅¬ 사항을 κ°•μ œν•˜μ§€ μ•ŠλŠ” 경우 μ—­ν•  기반 μ ‘κ·Ό μ œμ–΄(RBAC) κ΅¬ν˜„μ΄ λΆ€μ‘±ν•˜μ—¬ μ‚¬μš©μžκ°€ μ˜λ„λœ κΆŒν•œμ„ μ΄ˆκ³Όν•˜μ—¬ μž‘μ—…μ„ μˆ˜ν–‰ν•˜λŠ” 경우 LLMμ—μ„œ μƒμ„±λœ μ½˜ν…μΈ μ™€ μž‘μ—…μ— μ μ ˆν•œ μ ‘κ·Ό μ œμ–΄λ₯Ό μ œκ³΅ν•˜μ§€ μ•ŠλŠ” 경우 예방 방법: 닀쀑 인증을 ν¬ν•¨ν•œ κ°•λ ₯ν•œ 인증 λ©”μ»€λ‹ˆμ¦˜μ„ κ΅¬ν˜„ν•˜μ—¬ 였직 μΈκ°€λœ μ‚¬μš©μžλ§Œ LLM에 μ ‘κ·Όν•  수 μžˆλ„λ‘ ν•©λ‹ˆλ‹€. μ‚¬μš©μžμ˜ μ—­ν• κ³Ό μ±…μž„μ— 따라 μ‚¬μš©μž κΆŒν•œμ„ μ •μ˜ν•˜κ³  κ°•μ œν•˜κΈ° μœ„ν•΄ μ—­ν•  기반 μ ‘κ·Ό μ œμ–΄(RBAC)λ₯Ό μ‚¬μš©ν•©λ‹ˆλ‹€. LLM이 μƒμ„±ν•œ ..
[OWASP-LLM] Top 10 List for Large Language Models version 0.1 - (7) Inadequate AI Alignment
Β·
πŸƒ Routine
LLM07:2023 λΆˆμΆ©λΆ„ν•œ AI μ‘°μ • μ„€λͺ…: λΆˆμΆ©λΆ„ν•œ AI 정렬은 LLM의 λͺ©ν‘œμ™€ 행동이 μ˜λ„ν•œ μ‚¬μš© 사둀와 μΌμΉ˜ν•˜μ§€ μ•Šμ•„ μ›ν•˜μ§€ μ•ŠλŠ” κ²°κ³Όλ‚˜ 취약점이 λ°œμƒν•˜λŠ” κ²½μš°μž…λ‹ˆλ‹€. 일반적인 AI μ •λ ¬ 문제: λͺ©ν‘œκ°€ λͺ…ν™•νžˆ μ •μ˜λ˜μ§€ μ•Šμ•„ LLM이 μ›ν•˜μ§€ μ•Šκ±°λ‚˜ μœ ν•΄ν•œ 행동을 μš°μ„ μ‹œν•˜λŠ” 경우 μ •λ ¬λ˜μ§€ μ•Šμ€ 보상 ν•¨μˆ˜ λ˜λŠ” ν›ˆλ ¨ λ°μ΄ν„°λ‘œ 인해 μ˜λ„ν•˜μ§€ μ•Šμ€ λͺ¨λΈ 행동이 λ°œμƒν•˜λŠ” 경우 λ‹€μ–‘ν•œ λ§₯락과 μ‹œλ‚˜λ¦¬μ˜€μ—μ„œ LLM의 행동을 μΆ©λΆ„νžˆ ν…ŒμŠ€νŠΈν•˜κ³  κ²€μ¦ν•˜μ§€ μ•Šμ€ 경우 예방 방법: LLM의 λͺ©ν‘œμ™€ μ˜λ„λœ 행동을 섀계 및 개발 κ³Όμ • 쀑에 λͺ…ν™•νžˆ μ •μ˜ν•©λ‹ˆλ‹€. 보상 ν•¨μˆ˜μ™€ ν›ˆλ ¨ 데이터가 μ›ν•˜λŠ” 결과와 μΌμΉ˜ν•˜λ©° μ›ν•˜μ§€ μ•Šκ±°λ‚˜ μœ ν•΄ν•œ 행동을 μœ λ°œν•˜μ§€ μ•Šλ„λ‘ 보μž₯ν•©λ‹ˆλ‹€. λ‹€μ–‘ν•œ μ‹œλ‚˜λ¦¬μ˜€, μž…λ ₯ 및 λ§₯λ½μ—μ„œ LLM의 행동을 μ •λ ¬ 문제..
[OWASP-LLM] Top 10 List for Large Language Models version 0.1 - (6) Overreliance on LLM-generated Content
Β·
πŸƒ Routine
LLM06:2023 LLM 기반 μ½˜ν…μΈ μ— λŒ€ν•œ κ³Όλ„ν•œ 의쑴 μ„€λͺ… LLM 기반 μ½˜ν…μΈ μ— λŒ€ν•œ κ³Όλ„ν•œ μ˜μ‘΄μ€ μ˜€λ„λœ μ •λ³΄μ˜ μ „νŒŒ, μ˜μ‚¬ κ²°μ •μ—μ„œ μΈκ°„μ˜ μ°Έμ—¬ κ°μ†Œ, λΉ„νŒμ  사고 λŠ₯λ ₯의 κ°μ†Œλ₯Ό μ΄ˆλž˜ν•  수 μžˆμŠ΅λ‹ˆλ‹€. κΈ°κ΄€ 및 μ‚¬μš©μžλ“€μ€ LLM 기반 μ½˜ν…μΈ λ₯Ό 검증 없이 믿을 수 μžˆμ–΄μ„œ 잘λͺ»λœ 정보, μ˜€ν•΄ λ˜λŠ” μ˜λ„ν•˜μ§€ μ•Šμ€ κ²°κ³Όλ₯Ό μ΄ˆλž˜ν•  수 μžˆμŠ΅λ‹ˆλ‹€. LLM 기반 μ½˜ν…μΈ μ— λŒ€ν•œ 일반적인 λ¬Έμ œμ μ€ λ‹€μŒκ³Ό κ°™μŠ΅λ‹ˆλ‹€: 검증 없이 LLM 기반 μ½˜ν…μΈ λ₯Ό μ‚¬μ‹€λ‘œ μΈμ‹ν•˜λŠ” 것 LLM 기반 μ½˜ν…μΈ κ°€ 편ν–₯μ΄λ‚˜ 였λ₯˜κ°€ μ—†λ‹€κ³  κ°€μ •ν•˜λŠ” 것 μΈκ°„μ˜ μ°Έμ—¬λ‚˜ 감독 없이 μ€‘μš”ν•œ 결정에 LLM 기반 μ½˜ν…μΈ μ— μ˜μ‘΄ν•˜λŠ” 것 예방 방법 LLM 기반 μ½˜ν…μΈ μ— λŒ€ν•œ 문제λ₯Ό μ˜ˆλ°©ν•˜κΈ° μœ„ν•΄ λ‹€μŒκ³Ό 같은 λͺ¨λ²” 사둀λ₯Ό κ³ λ €ν•΄μ•Ό ν•©λ‹ˆλ‹€: μ‚¬μš©μžλ“€μ—κ²Œ LLM ..
LLM Context ν™•μž₯ λΆˆκ°€λŠ₯은 μ•„λ‹ˆλ‹€. (token size 늘리기 정리)
Β·
πŸ—£οΈ Natural Language Processing
https://kaiokendev.github.io/context Extending Context is Hard pages kaiokendev.github.io kaiokendev.github.io ν™•μž₯ μ»¨ν…μŠ€νŠΈλŠ” μ–΄λ ΅μ§€λ§Œ λΆˆκ°€λŠ₯ν•˜μ§€λŠ” μ•ŠμŠ΅λ‹ˆλ‹€† ν‘œλ©΄μ μœΌλ‘œλŠ” μ‰¬μš΄ μž‘μ—…μ΄μ–΄μ•Ό ν•©λ‹ˆλ‹€. μ €λŠ” κΈ΄ μ‹œν€€μŠ€ 길이에 λŒ€ν•΄ 사전 ν›ˆλ ¨λœ λͺ¨λΈμ„ λ―Έμ„Έ μ‘°μ •ν•˜λŠ” 방법을 μ—°κ΅¬ν•˜λ©΄μ„œ 이 글을 μž‘μ„±ν•˜κ³  μžˆμ—ˆμŠ΅λ‹ˆλ‹€. 이 경우, 사전 ν›ˆλ ¨λœ λͺ¨λΈμ€ LLaMa이며, 사전 ν›ˆλ ¨ μ‹œν€€μŠ€ κΈΈμ΄λŠ” 2048μž…λ‹ˆλ‹€. κΈ΄ μ‹œν€€μŠ€μ—μ„œ λͺ¨λΈμ„ λ‹¨μˆœνžˆ λ―Έμ„Έ μ‘°μ •ν•˜λŠ” 것은 항상 μž‘λ™ν•˜μ§€ μ•ŠλŠ” κ²ƒμ²˜λŸΌ λ³΄μ˜€μ§€λ§Œ, κ°€λŠ₯ν•΄μ•Ό ν•œλ‹€κ³  μƒκ°ν–ˆμœΌλ―€λ‘œ μ™„μ „νžˆ 도전해 λ³΄μ•˜μŠ΅λ‹ˆλ‹€. 이제 1μ€„μ˜ μ½”λ“œλ‘œ μ»¨ν…μŠ€νŠΈλ₯Ό ν™•μž₯ν•˜λŠ” 방법이 있으며, 이에 λ§Žμ€ 관심이 μ§‘μ€‘λ˜κ³  μžˆμŠ΅λ‹ˆ..
[OWASP-LLM] Top 10 List for Large Language Models version 0.1 - (5) SSRF Vulnerabilities
Β·
πŸƒ Routine
LLM05:2023 SSRF Vulnerabilities μ„€λͺ…: μ„œλ²„ μΈ‘ μš”μ²­ μœ„μ‘°(SSRF) 취약점은 κ³΅κ²©μžκ°€ LLM을 μ•…μš©ν•˜μ—¬ μ˜λ„ν•˜μ§€ μ•Šμ€ μš”μ²­μ„ μˆ˜ν–‰ν•˜κ±°λ‚˜ μ œν•œλœ λ¦¬μ†ŒμŠ€(λ‚΄λΆ€ μ„œλΉ„μŠ€, API λ˜λŠ” 데이터 μ €μž₯μ†Œ)에 μ•‘μ„ΈμŠ€ν•  λ•Œ λ°œμƒν•©λ‹ˆλ‹€. 일반적인 SSRF 취약점: μž…λ ₯ μœ νš¨μ„± 검사가 μΆ©λΆ„ν•˜μ§€ μ•Šμ•„ κ³΅κ²©μžκ°€ LLM ν”„λ‘¬ν”„νŠΈλ₯Ό μ‘°μž‘ν•˜μ—¬ 무단 μš”μ²­μ„ μ‹œμž‘ν•  수 μžˆμŠ΅λ‹ˆλ‹€. μ μ ˆν•œ μƒŒλ“œλ°•μ‹± λ˜λŠ” λ¦¬μ†ŒμŠ€ μ œν•œμ΄ λΆ€μ‘±ν•˜μ—¬ LLM이 μ œν•œλœ λ¦¬μ†ŒμŠ€μ— μ•‘μ„ΈμŠ€ν•˜κ±°λ‚˜ λ‚΄λΆ€ μ„œλΉ„μŠ€μ™€ μƒν˜Έ μž‘μš©ν•  수 μžˆμŠ΅λ‹ˆλ‹€. λ„€νŠΈμ›Œν¬ λ˜λŠ” μ‘μš© ν”„λ‘œκ·Έλž¨ λ³΄μ•ˆ μ„€μ •μ—μ„œ 잘λͺ»λœ κ΅¬μ„±μœΌλ‘œ 인해 λ‚΄λΆ€ λ¦¬μ†ŒμŠ€κ°€ LLM에 λ…ΈμΆœλ  수 μžˆμŠ΅λ‹ˆλ‹€. 예방 방법: μ•…μ˜μ μ΄κ±°λ‚˜ 예기치 μ•Šμ€ ν”„λ‘¬ν”„νŠΈκ°€ 무단 μš”μ²­μ„ μ‹œμž‘ν•˜μ§€ λͺ»ν•˜λ„둝 μ—„κ²©ν•œ μž…λ ₯ μœ νš¨μ„± 검사..
Yuval Noah Harari (Sapiens) VS Yann Le Cun (Meta) on artificial intelligence
Β·
πŸƒ Routine
Yuval Noah Harari(Sapiens) VS Yann Le Cun (Meta) 인곡지λŠ₯ λ…ΌμŸ 원문 https://www.lepoint.fr/sciences-nature/yuval-harari-sapiens-versus-yann-le-cun-meta-on-artificial-intelligence-11-05-2023-2519782_1924.php Yuval Noah Harari (Sapiens) versus Yann Le Cun (Meta) on artificial intelligence EXCLUSIVE. The annihilation of democracy or new age of Enlightenment? Best-seller Sapiens author Yuval Noah Harari and..
λ‹€ν–ˆλ‹€
B's