# llm-engineering
카테고리: llm-engineering
- 2025-08-31 왜 LLM API는 매번 대화 기록을 다시 보낼까: Transformer의 무상태성과 컨텍스트 관리의 필연성LLM, API설계, Stateless, 세션관리, 아키텍처, Transformer, Attention, Context-Window
- 2025-08-29 Transformer 스터디 (8) 트랜스포머 PoC 구현Transformer, 구현, PoC, 회고, 딥러닝
- 2025-08-29 Transformer 스터디 (7) 임베딩: 단어를 벡터로Transformer, Embedding, Tokenizer, 벡터공간, 딥러닝
- 2025-08-29 Transformer 스터디 (6) Multi-Head Attention 심화Transformer, MultiHeadAttention, HeadSpecialization, 실험노트, 딥러닝
- 2025-08-29 Transformer 스터디 (5) Self-Attention의 수학적 이해Transformer, SelfAttention, 수학해설, QueryKeyValue, 딥러닝
- 2025-08-29 Transformer 스터디 (4) Residual Connection & Layer NormalizationTransformer, ResidualConnection, LayerNorm, 안정성, 딥러닝
- 2025-08-29 Transformer 스터디 (3) Feed Forward Network: 참으로 직관적인 이름이네!Transformer, FeedForward, FFN, 비선형성, 딥러닝
- 2025-08-29 Transformer 스터디 (2) Positional Encoding - 거리를 파악하는 감각Transformer, PositionalEncoding, 위치인코딩, 직관, 딥러닝
- 2025-08-29 Transformer 스터디 (1) 전체 로드맵 & 왜 다시 공부했나Transformer, 로드맵, 스터디소개, 배경, 딥러닝
- 2025-03-09 Attention Is All You Need 논문 : 처음 읽어보기! - (3)Transformer, 논문리뷰, EncoderDecoder, ScaledDotProduct, 딥러닝
- 2025-03-08 Attention Is All You Need 논문 : 처음 읽어보기! - (2)Transformer, 논문리뷰, RNN한계, AttentionMechanism, 딥러닝
- 2025-02-20 Attention Is All You Need 논문 : 처음 읽어보기! - (1)Transformer, 논문리뷰, AttentionMechanism, 딥러닝
- 2024-12-26 LLM과 문장 부호 : 정말로 문장 부호 사용이 프롬프트 해석에 도움이 될까?프롬프트엔지니어링, 어텐션메커니즘, 실험분석, Falcon7B
- 2024-12-07 망가진 LLM 봇 트윗, 하지만 구조는 살아있다?트위터봇, 언어모델, 디코딩, 통사론
Category index · 자동 생성 템플릿

이 글 및 사이트 내 명시된 창작 컨텐츠 (코드 스니펫 제외)은(는)
Creative Commons Attribution-ShareAlike 4.0 International (CC BY-SA 4.0) 라이선스로 제공됩니다.
출처 표기: 이하나 · 수정 / 2차 저작물 작성 시 동일한 라이선스로 공유해야 합니다.
출처 표기: 이하나 · 수정 / 2차 저작물 작성 시 동일한 라이선스로 공유해야 합니다.
License / Attribution Info
- 라이선스 전문: 로컬 사본
- 원문: CreativeCommons.org
- SPDX ID:
CC-BY-SA-4.0