FedTensor

  • 홈
  • 태그
  • 방명록

nvidia 1

DistilBERT + KorQuAD MLM 훈련 소요 시간 비교 (RTX 4090, T4, A100)

개요BERT 계열 언어 모델 중 하나인 DistilBERT(논문)로 미세 조정 훈련을 수행할 때 NVIDIA GPU 모델에 따라 훈련에 걸리는 시간이 어떻게 달라지는지 궁금했습니다. 실험에 사용한 모델과 데이터셋은 다음과 같습니다.기본 모델: distilbert-base-multilingual-cased데이터셋: KorQuAD 1.0미세 조정 훈련은 아래의 작업을 목표로 하였습니다.Masked Language Model (MLM) (참고: Fine-tuning a masked language model)GPU 모델 사양훈련 소요 시간 비교를 위해 사용한 NVIDIA GPU 모델은 아래 표와 같습니다.GPU 모델RTX 4090T4A100 (40GB 기준)CUDA 코어 수16,384개2,560개6,912개T..

인공지능/BERT 계열 이해 2025.10.18
이전
1
다음
더보기
프로필사진

FedTensor

데이터의 보호와 활용 - 천천히, 제대로

  • 분류 전체보기 (127) N
    • 뇌과학 (14)
      • 뇌 가소성 (8)
      • 뇌 신경망 (4)
      • 의식 (2)
    • 인공지능 (29)
      • 신경망 이해 (6)
      • 트랜스포머 이해 (6)
      • BERT 계열 이해 (4)
      • GPT 계열 이해 (1)
      • 이미지 분류 (3)
      • 객체 탐지 및 추적 (1)
      • 평가지표 (3)
      • 모델 보안 (5)
    • 연합학습 (27)
      • 사이버 보안 (9)
      • 안전한 집계 (4)
      • 추론 성능 (6)
      • 구축 방안 (8)
    • 개인정보보호 강화 기술 (14)
      • PETs (1)
      • 타원 곡선 암호 (0)
      • 보안 다자간 계산 (6)
      • 영지식 증명 (0)
      • 차등 정보보호 (7)
    • 정보량과 엔트로피 (0)
    • 데이터 분석 (15)
      • 회귀 분석 (8)
      • 차원 축소 (2)
      • 가설 검정 (2)
      • 연관 분석 (1)
      • 시각화 (2)
    • 수학 (20) N
      • 베이지안 추론 (6)
      • 선형대수학 (2)
      • 확률과 통계 (3)
      • 푸아송 과정과 확률 분포 (7)
      • 암호학을 위한 수학 (2) N
    • 물리 (8)
      • 고전역학 (4)
      • 상대성 이론 (3)
      • 양자역학 (1)

Tag

차분프라이버시, 지수분포, smpc, 안전한집계, 뇌가소성, 프라이버시, map, 경사하강법, secagg+, 로지스틱회귀, 연합학습, non-iid, 최소작용의원리, 신경세포, 이질적데이터, 개인정보보호, 전역민감도, 데이터분석, 차등정보보호, 학습, 기억, 비밀공유, 푸아송분포, 신경망, 트랜스포머, 베이지안추론, 감마분포, 사이버보안, 인접데이터셋, 보안다자간계산,

최근글과 인기글

  • 최근글
  • 인기글

최근댓글

공지사항

페이스북 트위터 플러그인

  • Facebook
  • Twitter

Archives

Calendar

«   2026/01   »
일 월 화 수 목 금 토
1 2 3
4 5 6 7 8 9 10
11 12 13 14 15 16 17
18 19 20 21 22 23 24
25 26 27 28 29 30 31

방문자수Total

  • Today :
  • Yesterday :

Copyright © Kakao Corp. All rights reserved.

티스토리툴바