FedTensor

  • 홈
  • 태그
  • 방명록

마스크드언어모델 1

BERT의 마스크드 언어 모델 상세 설명

BERT (Bidirectional Encoder Representations from Transformers)의 핵심 혁신 중 하나가 바로 이 '마스크드 언어 모델(Masked Language Model, MLM)'입니다. 이 개념이 왜 중요하고 어떻게 작동하는지 자세히 설명합니다.1. MLM이란 무엇이며 왜 필요한가?전통적인 언어 모델(예: GPT-1)은 문장을 왼쪽에서 오른쪽으로 순차적으로 처리하며 다음 단어를 예측하는 방식으로 학습되었습니다."나는 학교에 [?]" -> 모델이 "가서"를 예측이 방식은 문맥을 한쪽 방향(왼쪽)으로만 학습한다는 한계가 있습니다. 반면, BERT는 "깊은 양방향성(deep bidirectionality)"을 구현하고자 했습니다. 즉, 문장 내 모든 단어가 자신의 왼쪽과..

인공지능/BERT 계열 이해 2025.10.23
이전
1
다음
더보기
프로필사진

FedTensor

데이터의 보호와 활용 - 천천히, 제대로

  • 분류 전체보기 (127) N
    • 뇌과학 (14)
      • 뇌 가소성 (8)
      • 뇌 신경망 (4)
      • 의식 (2)
    • 인공지능 (29)
      • 신경망 이해 (6)
      • 트랜스포머 이해 (6)
      • BERT 계열 이해 (4)
      • GPT 계열 이해 (1)
      • 이미지 분류 (3)
      • 객체 탐지 및 추적 (1)
      • 평가지표 (3)
      • 모델 보안 (5)
    • 연합학습 (27)
      • 사이버 보안 (9)
      • 안전한 집계 (4)
      • 추론 성능 (6)
      • 구축 방안 (8)
    • 개인정보보호 강화 기술 (14)
      • PETs (1)
      • 타원 곡선 암호 (0)
      • 보안 다자간 계산 (6)
      • 영지식 증명 (0)
      • 차등 정보보호 (7)
    • 정보량과 엔트로피 (0)
    • 데이터 분석 (15)
      • 회귀 분석 (8)
      • 차원 축소 (2)
      • 가설 검정 (2)
      • 연관 분석 (1)
      • 시각화 (2)
    • 수학 (20) N
      • 베이지안 추론 (6)
      • 선형대수학 (2)
      • 확률과 통계 (3)
      • 푸아송 과정과 확률 분포 (7)
      • 암호학을 위한 수학 (2) N
    • 물리 (8)
      • 고전역학 (4)
      • 상대성 이론 (3)
      • 양자역학 (1)

Tag

푸아송분포, 프라이버시, 감마분포, 보안다자간계산, 로지스틱회귀, non-iid, 경사하강법, 최소작용의원리, 차등정보보호, 사이버보안, 뇌가소성, secagg+, 신경망, 기억, 이질적데이터, 데이터분석, 차분프라이버시, 학습, 베이지안추론, map, 트랜스포머, 안전한집계, 지수분포, 연합학습, smpc, 개인정보보호, 비밀공유, 인접데이터셋, 전역민감도, 신경세포,

최근글과 인기글

  • 최근글
  • 인기글

최근댓글

공지사항

페이스북 트위터 플러그인

  • Facebook
  • Twitter

Archives

Calendar

«   2026/01   »
일 월 화 수 목 금 토
1 2 3
4 5 6 7 8 9 10
11 12 13 14 15 16 17
18 19 20 21 22 23 24
25 26 27 28 29 30 31

방문자수Total

  • Today :
  • Yesterday :

Copyright © Kakao Corp. All rights reserved.

티스토리툴바