민성 Skystarry의 연구 창고

  • 홈
  • 태그
  • 방명록

positional encoding 1

[딥러닝] 트랜스포머의 나침반: Positional Encoding

지난 글에서 우리는 트랜스포머가 RNN의 재귀(Recurrence)를 과감히 버리고 병렬화라는 무기를 얻었다고 이야기했습니다.하지만 공짜 점심은 없습니다. 재귀를 버리자마자 트랜스포머는 치명적인 약점을 노출합니다. 바로 '순서'를 모르는 바보가 되었다는 점입니다.모델 입장에서는 "아버지가 방에 들어가신다"와 "아버지 가방에 들어가신다"가 그저 똑같은 단어 카드 뭉치로 보입니다. 모든 토큰을 한꺼번에 병렬로 처리하기 때문입니다.그래서 우리는 단어 벡터에 "네 위치는 여기야!"라는 이정표를 심어줘야 합니다. 이것이 바로 Positional Encoding(PE)입니다.왜 결합(Concat)이 아니라 더하기(Add)인가?PE를 처음 접할 때 아주 가끔, 하지만 꽤나 근본적인 질문을 던지는 분들이 있습니다."정..

트랜스포머 시리즈 2026.01.12
이전
1
다음
더보기
프로필사진

민성 Skystarry의 연구 창고

현재 AI/ML에 몰두하고 있는 10년차 청소년 개발자입니다.

  • 분류 전체보기 (3)
    • 트랜스포머 시리즈 (3)

Tag

GQA, deeplearning, 면접질문, MQA, nlp, 인공지능, multi-head attention, 트랜스포머, 딥러닝, Transformer, positional encoding, LLM, 어텐션,

최근글과 인기글

  • 최근글
  • 인기글

최근댓글

공지사항

페이스북 트위터 플러그인

  • Facebook
  • Twitter

Archives

Calendar

«   2026/01   »
일 월 화 수 목 금 토
1 2 3
4 5 6 7 8 9 10
11 12 13 14 15 16 17
18 19 20 21 22 23 24
25 26 27 28 29 30 31

방문자수Total

  • Today :
  • Yesterday :

Copyright © AXZ Corp. All rights reserved.

티스토리툴바