2025/10 74

SMPC-05. 다차원 벡터를 위한 덧셈 기반 비밀 공유 기법

보안 다자간 계산(Secure Multi-Party Computation, SMPC)에서 덧셈 기반 비밀 공유 기법을 다차원 벡터나 행렬에 적용하는 것은 기본적으로 벡터의 개별 요소 각각에 독립적으로 비밀 공유 기법을 적용하는 방식입니다.하나의 비밀 값을 여러 조각(share)으로 나누어 서로 다른 참여자에게 분배하는 것처럼, 다차원 벡터의 각 요소를 별개의 비밀 값으로 간주하고 각각에 대해 동일한 비밀 공유 절차를 진행하는 것입니다.작동 방식: 2x2 행렬 예시2차원 벡터 (행렬) $M$을 예로 들어보겠습니다.$$M = \begin{pmatrix} m_{11} & m_{12} \\ m_{21} & m_{22} \end{pmatrix} $$이 행렬 $M$을 세 명의 참여자(P1, P2, P3)에게 덧셈 ..

SMPC-04. 샤미르 비밀 공유(Shamir's Secret Sharing)를 이용한 평균 연봉 계산 방법

보안 다자간 계산(SMPC)은 여러 참여자가 각자 가진 비밀 정보를 노출하지 않으면서, 그 정보들을 종합하여 특정 함수(예: 합산, 평균)의 결과만을 얻고자 할 때 사용하는 암호 기술입니다.핵심 원리: 다항식의 덧셈 속성 활용각자의 비밀(연봉)을 $y$절편으로 하는 다항식을 만듭니다. 이 다항식들을 모두 더하면, 새로운 합계 다항식이 만들어지는데, 이 다항식의 $y$절편은 모든 비밀(연봉)의 합과 같습니다.계산 과정3명의 직원(철수, 영희, 민수)이 평균 연봉을 계산하는 상황을 예시로 들어보겠습니다.참여자($N$): 3명비밀 복원에 필요한 최소 인원($t$): 3명 (모두의 정보가 합산되어야 하므로)비밀 정보:철수 연봉: 5,000만 원영희 연봉: 6,000만 원민수 연봉: 7,000만 원1단계: 비밀 ..

BERT, GPT-2, XLNet 학습 방식 비교: 양방향, 단방향, 순열

주요 언어 모델 특징 비교: BERT, GPT-2, XLNet이 세 모델은 현대 자연어 처리(NLP) 분야에 혁명을 일으킨 대표적인 언어 모델들입니다. 모두 트랜스포머(Transformer)라는 강력한 아키텍처를 공유하지만, 마치 각기 다른 철학을 가진 라이벌처럼 언어를 학습하는 방식에서 뚜렷한 차이를 보입니다. 이 차이점을 이해하는 것은 NLP 기술을 올바르게 활용하는 데 매우 중요합니다.1. BERT (Bidirectional Encoder Representations from Transformers)BERT는 문장의 양쪽 문맥을 동시에 고려하여 단어의 의미를 파악하는 양방향(Bidirectional) 모델입니다. 이는 마치 우리가 문장을 읽을 때 특정 단어의 의미를 파악하기 위해 앞뒤 단어를 모두 ..

TR-03. 멀티-헤드 마스크드 셀프 어텐션(Multi-head Masked Self Attention)

멀티-헤드 마스크드 셀프 어텐션은 트랜스포머 디코더의 첫 번째 하위 계층에서 사용되는 메커니즘입니다. 핵심 기능은 문장을 생성할 때, 모델이 "미래의" 정답 단어를 미리 훔쳐보지 못하도록(cheating) 방지하는 것입니다.1. 왜 "Masked"가 필요한가?트랜스포머의 디코더는 자기회귀적(Autoregressive) 방식으로 작동합니다. 즉, 한 단어씩 순차적으로 문장을 생성합니다.예: "나는" $\rightarrow$ (다음 단어 예측) $\rightarrow$ "학생" $\rightarrow$ (다음 단어 예측) $\rightarrow$ "이다""학생"이라는 단어를 예측해야 하는 시점(Time Step 2)에서, 모델이 정답인 "학생"이나 그 뒤에 올 "이다"라는 정보를 미리 본다면, 그건 예측이 ..

TR-02. 멀티-헤드 셀프 어텐션(Multi-head Self Attention)

멀티-헤드 어텐션은 트랜스포머의 핵심 부품으로, "여러 개의 다른 관점에서" 문장을 동시에 바라보는 메커니즘입니다. '어텐션 헤드' 하나가 스케일드 닷-프로덕트 어텐션 계산기 한 세트라고 생각하시면 됩니다. 멀티-헤드는 이 계산기를 여러 개(예: 8개) 복제하여 병렬로 실행하는 방식입니다.왜 '멀티-헤드'가 필요한가?'싱글-헤드' 어텐션(어텐션을 한 번만 계산)은 문장 내 단어 간의 한 가지 종류의 관계만 학습하는 경향이 있습니다. 예를 들어, "그녀는 강아지에게 밥을 주었다"라는 문장에서 어텐션이 '주어-동사' 관계(그녀는-주었다)에만 집중하도록 학습될 수 있습니다. 하지만 문장에는 다양한 관계가 존재합니다.주어-동사 관계 (그녀는 - 주었다)동사-목적어 관계 (주었다 - 밥을)수식 관계 (강아지 - ..

TR-01. 어텐션(Attention) 함수

트랜스포머의 어텐션(Attention) 함수는 문장이나 데이터 시퀀스 내의 여러 요소(예: 단어) 중 "지금 이 순간 어떤 요소에 집중(attention)해야 하는지"를 계산하는 메커니즘입니다.간단히 말해, 특정 단어를 처리할 때 문장 내의 다른 모든 단어와의 연관성 점수(relevance score)를 계산하고, 이 점수를 가중치로 사용하여 문맥을 파악하는 방식입니다.트랜스포머에서 사용하는 어텐션의 핵심은 "스케일드 닷-프로덕트 어텐션 (Scaled Dot-Product Attention)"입니다.스케일드 닷-프로덕트 어텐션의 3가지 핵심 요소어텐션 함수는 3가지 주요 벡터(혹은 행렬)를 입력으로 받습니다.Query (Q): 현재 처리 중인 요소(단어)를 나타냅니다. "내가 지금 찾고 싶은 것" 또는 ..

SMPC-03. 덧셈 기반 비밀 공유를 이용한 평균 연봉 계산 방법

보안 다자간 계산(SMPC)은 여러 참여자가 각자 가진 비밀 정보를 노출하지 않으면서, 그 정보들을 종합하여 특정 함수(예: 합산, 평균)의 결과만을 얻고자 할 때 사용하는 암호 기술입니다. '덧셈 기반 비밀 공유'는 이를 구현하는 간단하면서도 강력한 방법 중 하나입니다.핵심 원리: 비밀을 조각내어 분배하기핵심 아이디어는 각자의 비밀 값을 의미 없는 여러 개의 '조각(share)'으로 나눈 뒤, 이 조각들을 서로에게 교환하는 것입니다. 어떤 참여자도 비밀 값의 조각 하나만으로는 원래 정보를 추측할 수 없지만, 모든 조각이 모이면 원래 정보를 복원할 수 있습니다. 덧셈 기반 비밀 공유에서는 비밀 값 $S$를 $S = s1 + s2 + s3 + ...$ 와 같이 여러 조각의 합으로 표현합니다.계산 절차여기서..

SMPC-02. 보안 다자간 계산(SMPC)의 핵심: 비밀 공유 기법

1. 비밀 공유(Secret Sharing)란 무엇인가?비밀 공유는 하나의 비밀 정보를 여러 개의 조각으로 나누어 서로 다른 참여자들에게 분배하는 암호 기술입니다. 이 기술의 핵심은, 정해진 수(임계값) 이상의 조각이 모여야만 원래의 비밀 정보를 복원할 수 있고, 그보다 적은 수의 조각으로는 비밀에 대한 어떠한 정보도 얻을 수 없다는 점입니다. 이러한 특성 때문에 비밀 공유는 참여자들이 자신의 입력값을 직접 노출하지 않고도 공동의 함수를 계산할 수 있게 하는 보안 다자간 계산(SMPC)의 근간이 됩니다. 예를 들어, 여러 사람이 각자의 연봉을 공개하지 않으면서 평균 연봉을 계산하고 싶을 때, 각자의 연봉을 비밀 공유 기법으로 분배한 뒤 연산을 수행하면 안전하게 결과를 얻을 수 있습니다.2. 주요 비밀 공..

FL-06. 연합학습의 사이버 보안을 위한 공격 경로 분석

1. 개요: 연합학습과 새로운 공격 표면연합학습(Federated Learning, FL)은 데이터가 생성되는 위치(예: 모바일 기기, 병원)에서 직접 모델을 학습하여 개인정보를 중앙 서버로 전송하지 않고도 협력적으로 인공지능 모델을 구축하는 분산 학습 패러다임입니다. 데이터 프라이버시를 강화하는 혁신적인 기술로 주목받고 있지만, 전통적인 중앙 집중형 머신러닝과는 다른 새로운 공격 표면(Attack Surface)을 노출합니다. 연합학습의 보안을 이해하기 위해서는 데이터가 아닌 '모델 업데이트(가중치, 그래디언트)'가 네트워크를 통해 교환된다는 점을 인지해야 합니다. 공격자는 이 교환 과정의 각 단계에 개입하여 모델의 무결성(Integrity), 가용성(Availability), 기밀성(Confident..

FL-05. 연합학습의 사이버 보안을 위한 공격 표면 분석

1. 개요연합학습(Federated Learning, FL)은 데이터를 중앙 서버로 전송하지 않고, 분산된 각 클라이언트(예: 스마트폰, 병원)에서 로컬로 모델을 학습한 뒤, 모델의 변경사항(가중치, 그래디언트 등)만을 서버로 보내 집계하는 분산형 머신러닝 패러다임입니다. 이 방식은 데이터 프라이버시를 근본적으로 강화할 수 있어 각광받고 있지만, 동시에 기존의 중앙 집중식 학습 환경과는 다른 독특하고 복잡한 공격 표면(Attack Surface)을 형성합니다. 이러한 배경에서 본 문서는 연합학습의 공격 표면을 클라이언트, 서버, 통신 채널, 모델의 네 가지 핵심 영역으로 나누어 분석하고, 각 영역에서 발생하는 대표적인 공격 기법과 이를 완화하기 위한 다층적 방어 전략을 순차적으로 제시합니다.2. 연합학습..