재호아빠의 연구노트

  • 홈
  • 태그
  • 방명록
  • 카테고리

LLM 1

Conditional Memory via Scalable Lookup:A New Axis of Sparsity for Large Language Models (Engram)

1. Motivation — 문제 정의 & 이전 연구의 한계언어 모델링의 이중성언어 모델링은 본질적으로 두 가지 이질적인 하위 작업을 동시에 수행해야 한다.작업 유형특성이상적인 처리 방식조합적 추론 (compositional reasoning)동적, 문맥 의존적깊은 신경 연산 (MoE)지식 검색 (knowledge retrieval)정적, 로컬, 고정적단순 룩업 (lookup)기존 Transformer의 구조적 비효율표준 Transformer에는 지식 검색을 위한 네이티브 프리미티브가 없다. "Alexander the Great"처럼 고정된 멀티토큰 엔티티 하나를 인식하는 데도 수 개의 Attention + FFN 레이어를 소비해야 한다. 이는 런타임에 정적 룩업 테이블을 비싼 연산으로 재구성하는 것과 ..

LLM 2026.03.31
이전
1
다음
더보기
프로필사진

재호아빠의 연구노트

AI 관련 연구 및 개발을 하고있는 한 아이의 아빠입니다.

  • 분류 전체보기
    • 연합학습(Federated Learning)
    • 기계학습(Machine Learning)
    • Knowledge Distillation
    • Model Pruning
    • MLOps 구축
    • LLM
    • Reinforcement Learning

최근글과 인기글

  • 최근글
  • 인기글

최근댓글

공지사항

Archives

Calendar

«   2026/04   »
일 월 화 수 목 금 토
1 2 3 4
5 6 7 8 9 10 11
12 13 14 15 16 17 18
19 20 21 22 23 24 25
26 27 28 29 30

방문자수Total

  • Today :
  • Yesterday :

Copyright © AXZ Corp. All rights reserved.

티스토리툴바