- llminterviewquestions
- llm model
- aiengineer
- 보안뉴스
- ai vulnerability
- AI기초
- 정보보안
- 프롬프트엔지니어링
- MachineLearning
- ai입문
- elasticsearch
- prompt injection
- llm attack
- airesearch
- largelanguagemodels
- llm hacking
- AI질문
- llm활용
- llm 활용
- ai hacking
- ai prompt
- metasploit_series
- llm questions
- aiinterviewprep
- xz-utils
- PromptEngineering
- Security
- aiforbeginners
- ChatGPT
- llmexplained
- Today
- Total
목록 ai vulnerability (2)
ARTIFEX ;)
안녕하세요 MINI 입니다.최근 HiddenLayer 연구진이 발표한 Policy Puppetry라는 획기적인 프롬프트 삽입 공격 기법은 모든 주요 LLM (GPT-4o, Gemini, Claude, Copilot 등)에 대해 단일 프롬프트로 필터링과 시스템 프롬프트 보호 계층을 훌쩍 뛰어넘는 새 위협으로 주목받고 있습니다. 원문은 아래 글을 참조해주세요 :) https://hiddenlayer.com/innovation-hub/novel-universal-bypass-for-all-major-llms/ Novel Universal Bypass for All Major LLMsHiddenLayer’s latest research uncovers a universal prompt injection bypa..
안녕하세요 :) MINI입니다. The TokenBreak Attack : LLM 및 AI 기반 필터링 시스템을 우회 공격에 대해서 포스팅하고자 나왔습니다!"대형 언어 모델(LLM)의 시대, 보안 필터는 과연 믿을 수 있을까? 단 한 글자만 바꿨을 뿐인데, AI는 금지된 명령을 순순히 실행했다." 과연 지금 시대의 AI는 공격으로 부터 온전히 안전하다고 할 수 있을까요?TokenBreak Attack은 단일 문자 변경만으로 AI 필터를 우회하여 위협적인 응답을 도출할 수 있는 결과를 만들어냅니다.자세한 내용은 아래를 참고해주세요AI 필터링 시스템, 완벽하지 않았다ChatGPT, Copilot, Claude, Gemini 등 최근의 AI 모델은 사용자에게 엄청난 편의성을 제공하는 동시에, 민감하거나 위험한..