- llmexplained
- xz-utils
- 보안뉴스
- llminterviewquestions
- aiengineer
- MachineLearning
- ai hacking
- airesearch
- llm model
- ai입문
- AI질문
- largelanguagemodels
- Security
- 프롬프트엔지니어링
- prompt injection
- metasploit_series
- llm attack
- AI기초
- llm questions
- 정보보안
- ai prompt
- aiinterviewprep
- ai vulnerability
- elasticsearch
- ChatGPT
- llm hacking
- llm활용
- llm 활용
- aiforbeginners
- PromptEngineering
- Today
- Total
ARTIFEX ;)
[Chapter 2] AI 전문가를 향한 첫 걸음 : LLM Interview Questions 핵심 50가지 QnA! 본문
[Chapter 2] AI 전문가를 향한 첫 걸음 : LLM Interview Questions 핵심 50가지 QnA!
Artifex_Ethan_ 2025. 6. 12. 17:47안녕하세요!
여러분에게 도움을 드리고자 준비해 온 MINI입니다!

[Chapter 2]로 바로 이어서 설명 드리겠습니다.
[Chapter 1]에서 바로 이어지는 글이다보니, 별도 사전 설명 없이 진행하도록 하겠습니다.
https://kangmin517.tistory.com/entry/Chapter-1-AI-%EC%A0%84%EB%AC%B8%EA%B0%80%EB%A5%BC-%ED%96%A5%ED%95%9C-%EC%B2%AB-%EA%B1%B8%EC%9D%8C-LLM-Interview-Questions-%ED%95%B5%EC%8B%AC-50%EA%B0%80%EC%A7%80-QnA
[Chapter 1] AI 전문가를 향한 첫 걸음 : LLM Interview Questions 핵심 50가지 QnA!
안녕하세요! 여러분의 공부에 도움이 될만한 것들을 알려드리는 MINI입니다.요즘 어딜 가나 'LLM', '생성형 AI' 이야기가 들려오죠. ChatGPT로 리포트 초안을 만들고, 번역기를 돌려 해외 자료를 보고,
kangmin517.tistory.com
Q11. 다음 문장 예측(Next Sentence Prediction)은 무엇이며, LLM을 어떻게 향상시키나요?
A11. 다음 문장 예측(NSP)은 모델에게 두 문장을 보여주고, 이 두 문장이 원래 글에서 이어지는 문장인지, 아니면 아무 상관없는 문장인지를 맞추게 하는 훈련 방식입니다. BERT와 같은 모델은 사전 훈련 과정에서 50%는 실제 이어지는 문장 쌍을, 나머지 50%는 무작위로 추출된 관련 없는 문장 쌍을 학습합니다.
이 훈련을 통해 모델은 문장과 문장 사이의 논리적 관계, 즉 '글의 흐름'을 이해하는 능력을 기르게 됩니다. 그 결과, 대화 시스템이나 문서 요약처럼 문장 간의 일관성이 중요한 작업에서 훨씬 더 자연스러운 결과물을 만들어낼 수 있습니다.
Q12. 텍스트 생성에서 탑-k(top-k) 샘플링과 탑-p(top-p) 샘플링은 어떻게 다른가요?
A12. 두 방식 모두 LLM이 다음 단어를 선택할 때 후보군을 정하는 방법이지만, 그 기준이 다릅니다.
- 탑-k(Top-k) 샘플링: 가장 확률이 높은 k개의 토큰 중에서 다음 토큰을 무작위로 선택합니다. 예를 들어 k=20이라면, 상위 20개 단어 중에서만 고르는 거죠. 예측 가능성을 어느 정도 제어하면서 다양성을 확보하는 방식입니다.
- 탑-p(Top-p) 샘플링 (Nucleus Sampling): 확률이 높은 순서대로 토큰을 더해, 그 누적 확률이 p값 (예: 0.95)을 넘을 때까지의 토큰들을 후보군으로 만듭니다. 이 방식은 문맥에 따라 후보군의 개수가 유연하게 바뀌기 때문에, 탑-k보다 더 다채로우면서도 일관성 있는 결과물을 만들어내, 특히 창의적인 글쓰기에 유리합니다.
Q13. 프롬프트 엔지니어링(prompt engineering)이 LLM 성능에 왜 중요한가요?
A13. 프롬프트 엔지니어링은 LLM으로부터 원하는 답변을 가장 잘 이끌어낼 수 있도록 입력(프롬프트)을 설계하고 최적화하는 기술입니다. 그냥 모호하게 "이거 요약해 줘"라고 하는 것보다 "이 기사를 100단어 이내로 요약해 줘"와 같이 명확하고 구체적인 지시를 내릴 때 훨씬 더 정확하고 만족스러운 결과물을 얻을 수 있습니다.
특히, 특정 작업에 대해 별도의 학습을 시키지 않은 제로샷(zero-shot) 또는 몇 개의 예시만 주는 퓨샷(few-shot) 환경에서 프롬프트 엔지니어링의 위력은 극대화됩니다. 잘 설계된 프롬프트 하나만으로도 LLM이 번역, 분류 등 다양한 작업을 훌륭하게 수행하도록 만들 수 있기 때문입니다.
Q14. 파인튜닝(fine-tuning) 중 발생하는 '치명적 망각(Catastrophic Forgetting)'을 어떻게 피할 수 있나요?
A14. 치명적 망각은 새로운 데이터를 학습하며 파인튜닝할 때, 모델이 기존에 학습했던 중요한 지식을 잊어버리는 현상을 말합니다. 이를 완화하기 위한 몇 가지 전략이 있습니다.
- 리허설 (Rehearsal): 새로운 데이터와 기존 데이터를 섞어서 훈련시킵니다.
- 탄력적 가중치 통합 (Elastic Weight Consolidation): 기존 지식에 중요했던 파라미터(가중치)는 덜 변하도록 보호하며 학습을 진행합니다.
- 모듈식 아키텍처 (Modular Architectures): 기존 모델에 새로운 작업에 특화된 모듈을 추가하여, 원래의 지식을 덮어쓰지 않도록 합니다. 이러한 방법들은 LLM이 새로운 지식을 습득하면서도 기존의 다재다능함을 잃지 않도록 도와줍니다.
Q15. 모델 증류(model distillation)란 무엇이며 LLM에 어떤 이점이 있나요?
A15. 모델 증류는 크고 성능 좋은 '선생님' 모델을 작고 가벼운 '학생' 모델이 모방하도록 훈련시키는 기술입니다.
단순히 정답(hard labels)만 가르치는 게 아니라, 선생님 모델이 정답을 예측하며 계산했던 '확률 분포(soft probabilities)'까지 통째로 학습시켜서 지식을 압축적으로 전달하는 것이 핵심입니다.
이를 통해 학생 모델은 훨씬 적은 메모리와 계산 자원을 사용하면서도 선생님 모델과 거의 비슷한 성능을 낼 수 있습니다.
덕분에 스마트폰과 같은 저사양 기기에서도 LLM을 실시간으로 구동하는 것이 가능해집니다.
Q16. LLM은 어휘 목록에 없는 단어(OOV, Out-of-Vocabulary)를 어떻게 처리하나요?
A16. LLM은 **서브워드 토큰화(subword tokenization)**라는 기법을 사용해 이 문제를 해결합니다. 처음 보는 단어가 나타나면, 그 단어를 자신이 알고 있는 더 작은 의미 단위(subword)로 분해하는 것이죠. BPE(Byte-Pair Encoding)가 대표적인 예입니다.
예를 들어, 'cryptocurrency'라는 단어를 처음 보더라도 'crypto'와 'currency'라는 아는 단어들의 조합으로 쪼개서 이해할 수 있습니다.
이 접근법 덕분에 LLM은 희귀하거나 새롭게 등장한 단어들도 효과적으로 처리하며 안정적인 언어 이해 및 생성 능력을 유지할 수 있습니다.
Q17. 트랜스포머(Transformer)는 기존의 Seq2Seq 모델을 어떻게 개선했나요?
A17. 트랜스포머는 기존 RNN 기반 Seq2Seq 모델의 한계를 다음과 같은 혁신으로 극복했습니다.
- 병렬 처리 (Parallel Processing): RNN처럼 단어를 순서대로 하나씩 처리하는 대신, 셀프 어텐션(self-attention)을 통해 모든 토큰을 동시에 처리하여 속도를 획기적으로 높였습니다.
- 장거리 의존성 (Long-Range Dependencies): 어텐션 메커니즘 덕분에 문장 내에서 멀리 떨어진 단어 간의 관계도 효과적으로 포착할 수 있습니다.
- 위치 인코딩 (Positional Encodings): 단어의 순서 정보를 따로 추가해주어, 순서 개념이 없는 셀프 어텐션의 단점을 보완합니다.
이러한 특징들은 모델의 성능과 확장성을 크게 향상시켰습니다.
Q18. 오버피팅(Overfitting)이란 무엇이며 LLM에서 어떻게 완화할 수 있나요?
A18. 오버피팅(과적합)은 모델이 훈련 데이터를 너무 열심히 외운 나머지, 새로운 데이터에는 제대로 대응하지 못하는 현상을 말합니다. 일반화 성능이 떨어지는 것이죠. 이를 완화하기 위한 대표적인 방법은 다음과 같습니다.
- 정규화 (Regularization): L1/L2 패널티 등을 이용해 모델의 복잡도를 낮춰 과도한 학습을 방지합니다.
- 드롭아웃 (Dropout): 훈련 과정에서 무작위로 일부 뉴런을 비활성화하여, 모델이 특정 뉴런에 과도하게 의존하는 것을 막습니다.
- 조기 종료 (Early Stopping): 검증 데이터(validation data)에 대한 성능이 더 이상 향상되지 않을 때 훈련을 멈춥니다.
이런 기법들은 모델이 처음 보는 데이터에도 안정적인 성능을 보이도록 보장합니다.
Q19. NLP에서 생성(Generative) 모델과 판별(Discriminative) 모델은 어떻게 다른가요?
A19. 두 모델은 데이터에 접근하는 방식과 목표가 다릅니다.
- 생성 모델 (Generative Models, 예: GPT): 데이터의 **결합 확률(joint probability)**을 학습하여, 텍스트나 이미지 같은 새로운 데이터를 '창작'하는 데 초점을 맞춥니다.
- 판별 모델 (Discriminative Models, 예: 분류용 BERT): 입력 데이터가 주어졌을 때 정답일 **조건부 확률(conditional probability)**을 학습하여, 주어진 데이터를 여러 클래스로 '분류'하거나 '구별'하는 데 목적을 둡니다. (예: 긍정/부정 감성 분석) 쉽게 말해, 생성 모델은 '창작'에, 판별 모델은 '분류'에 특화되어 있습니다.
Q20. GPT-4는 GPT-3와 비교하여 어떤 특징과 활용 분야에서 차이가 있나요?
A20. GPT-4는 여러 측면에서 GPT-3를 크게 능가합니다.
- 멀티모달 입력 (Multimodal Input): 텍스트뿐만 아니라 이미지까지 함께 이해하고 처리할 수 있습니다.
- 더 커진 컨텍스트 (Larger Context): 한 번에 처리할 수 있는 토큰이 GPT-3의 4,096개에서 최대 25,000개까지 늘어나 훨씬 긴 맥락을 이해합니다.
- 향상된 정확도 (Enhanced Accuracy): 더 정교한 파인튜닝을 통해 사실적인 오류를 줄였습니다.
이러한 개선 덕분에 GPT-4는 시각적 질의응답(VQA)이나 훨씬 더 복잡하고 긴 대화 등, 기존 모델이 어려워했던 영역까지 활용 분야를 넓혔습니다.
Chapter 2는 여기까지 설명드리겠습니다!
다음 Chapter 2에서 만나요! - 앙뇽 -