데이터 반출 없는 다기관 연합 인공지능 학습 플랫폼

분류 전체보기 193

파동함수의 역사: 아이디어에서 양자역학의 중심으로

파동함수는 어느 날 갑자기 등장한 개념이 아니라, 20세기 초반 물리학의 혁명적인 흐름 속에서 탄생했습니다. 그 도입 과정은 크게 세 단계로 나누어 볼 수 있습니다.1단계: 드브로이의 담대한 제안 - "모든 물질은 파동이다" (1924년)파동함수의 역사는 프랑스 물리학자 루이 드브로이(Louis de Broglie)의 혁명적인 아이디어에서 시작됩니다. 당시 빛이 입자성과 파동성을 모두 가진다는 '광전 효과'와 '회절 현상'이 알려져 있었습니다. 드브로이는 여기서 더 나아가 자연의 대칭성을 믿고, 빛뿐만 아니라 전자와 같은 모든 물질 또한 입자인 동시에 파동의 성질을 가질 것이라고 주장했습니다. 이를 물질파(matter wave) 가설이라고 부릅니다. 그는 움직이는 모든 입자가 그 운동량($p$)에 반비례..

물리/양자역학 2025.10.08

04. 해밀턴 역학 개요

뉴턴의 운동 법칙 F=ma는 '어떤 힘이 가해졌을 때, 물체는 다음 순간 어떻게 움직이는가?'라는 질문에 답하며 운동을 순간적으로 설명합니다. 하지만 '물체는 왜 시작점에서 도착점까지 바로 그 경로를 따라가야만 했는가?'라는 더 근본적인 질문에 답하는 우아한 관점이 있습니다. 바로 '최소 작용의 원리'와 이를 바탕으로 전개되는 '해밀턴 역학'입니다. 이들은 "자연은 가장 효율적인 경로를 선택한다"는 하나의 대원칙으로부터 운동 법칙을 유도해냅니다.1. 최소 작용의 원리 (Principle of Least Action)자연 현상의 근본에는 '경제성'이 있다는 철학적인 아이디어에서 출발합니다. 물체가 한 지점에서 다른 지점으로 이동할 때, 가능한 무수히 많은 경로 중에서 실제 자연이 선택하는 경로는 '작용(A..

물리/고전역학 2025.10.08

DP-02. 재식별 위험의 정량화를 위한 실마리

재식별 위험, 어떻게 측정할 수 있을까?데이터가 공개될 때 우리가 느끼는 '왠지 모를 불안감'을 숫자로 측정할 수 있다면 어떨까요? 놀랍게도, 프라이버시 보호 기술은 그 막연한 불안감을 구체적인 '위험도'로 계산하고 관리하는 것을 목표로 합니다. 그 실마리는 '한 개인의 정보가 전체 결과에 미치는 영향'을 살펴보는 데 있습니다. 데이터베이스에 내 정보가 추가됨으로 인해 통계 결과가 크게 달라진다면, 역으로 그 결과를 통해 나를 특정하기 쉬워진다는 의미입니다. 반대로 내 정보가 추가되어도 결과에 거의 변화가 없다면, 나는 수많은 데이터 속에 안전하게 숨을 수 있습니다. 즉, 재식별 위험을 낮추려면 개인의 정보가 결과에 미치는 영향(차이)을 최소화해야 합니다.상황 1: N명의 데이터베이스 → 통계 결과 A상..

DP-01. 재식별 위험: 보이지 않는 위협

데이터의 가치와 공개의 역설데이터를 완벽하게 보호하는 가장 확실한 방법은 아무에게도 공개하지 않는 것입니다. 하지만 이는 데이터가 가진 무한한 잠재력을 사장시키는 것과 같습니다. 결국 데이터의 가치를 실현하기 위해 '공개'는 피할 수 없는 선택이며, 바로 그 순간 '재식별'이라는 피할 수 없는 위험이 뒤따릅니다. 이름이나 주민등록번호 같은 명백한 식별자를 제거하는 것만으로는 충분하지 않습니다. 언뜻 사소해 보이는 여러 정보가 조각 그림 맞추듯 결합되면, 결국 특정 개인을 가리키는 '재식별'의 화살이 될 수 있기 때문입니다. 이 위험이 얼마나 현실적인지, 구체적인 시나리오를 통해 살펴보겠습니다.평범한 통계에 숨겨진 위험어느 작은 마을에 1,000명이 살고 있습니다. 보건 당국이 이 마을의 희귀 질병 유병률..

DP-17. 가우시안 노이즈에서 프라이버시 손실 관계식 유도

프라이버시 손실 관계 수식 유도차등 정보보호에서 가우시안 메커니즘이 (ε, δ)-DP를 만족할 때, 다음 파라미터들 간의 관계는 어떻게 될까요?$ε$: 프라이버시 손실 예산$δ$: ε-DP가 깨질 수 있는 확률 (프라이버시 손실 예산 초과 확률)$S$: L2-민감도 (인접한 두 데이터셋 $D_1$, $D_2$에 대한 질의 함수 $f$의 결과값 차이를 L2-놈으로 정의할 때 이들 사이의 최댓값)$$S=\max_{D_1,D_2}||f(D_1)-f(D_2)||_2$$$σ$: 노이즈 표준편차프라이버시 손실은 데이터셋 $D_1$와 $D_2$(하나의 레코드만 차이나는 인접 데이터셋)에 대한 질의 함수 $f$의 결과 $o$가 나올 확률의 비율로 정의됩니다. 여기에 로그 함수를 적용하여 확률 변수 $L$을 다음과 같이..

놈(Norm)의 정의와 활용

1. 놈의 도입 배경: '거리'와 '크기'의 일반화우리는 초중고 수학 과정에서 피타고라스 정리를 이용해 2차원 또는 3차원 공간에서 두 점 사이의 거리나 화살표(벡터)의 길이를 구하는 법을 배웠습니다. 예를 들어, 좌표평면 위의 점 (3, 4)에서 원점 (0, 0)까지의 거리는 $\sqrt{3^2+4^2}=5$ 라고 쉽게 계산할 수 있죠. 수학자들은 이러한 '거리' 또는 '크기'라는 직관적인 개념을 우리가 일상적으로 다루는 2차원, 3차원 공간을 넘어 훨씬 더 복잡하고 추상적인 '벡터 공간(Vector Space)'으로 확장하고 싶었습니다. 예를 들어, '함수'들도 하나의 벡터 공간을 이룰 수 있는데, "두 함수의 거리는 얼마일까?" 또는 "이 함수의 전체적인 크기는 얼마일까?"와 같은 질문에 답하기 위..

연관 분석 (Association Analysis) 이해하기

연관 분석은 대규모 데이터 속에서 항목 간의 유의미한 관계, 즉 '연관 규칙(Association Rule)'을 찾아내는 데이터 마이닝 기법입니다. 특히 "기저귀를 산 고객이 맥주도 함께 구매한다"처럼 상품 구매 데이터에서 규칙을 찾는 경우, 이를 장바구니 분석(Market Basket Analysis)이라고 부릅니다.1. 연관 분석이란 무엇인가요?쉽게 말해, 데이터 속에서 'A가 발생했을 때 B가 얼마나 자주 함께 발생하는지'를 분석하여 규칙을 찾아내는 것입니다. 예를 들어, 대형 마트의 거래 데이터에서 "기저귀를 구매한 고객은 맥주도 함께 구매하는 경향이 있다"는 규칙을 발견하는 것이 연관 분석의 대표적인 예입니다. 이러한 규칙은 다음과 같은 다양한 분야에서 활용될 수 있습니다.유통/소매: 상품 진열..

차원 축소 기법 비교: PCA, SVD, ICA 핵심 차이점

세 기법(PCA, SVD, ICA)은 모두 데이터에 내재된 잠재적인 성분(component)이나 기저(basis)를 찾는다는 공통점이 있습니다. 하지만 무엇을 목표로 삼는지와 찾아내는 성분에 어떤 제약 조건을 거는지에서 근본적인 차이가 발생합니다.기법 비교1. PCA와 SVD: 통계 기법과 그것을 푸는 수학 도구두 기법은 수학적으로 매우 밀접하여 종종 혼용되지만, 개념적인 출발점이 다릅니다.관계: PCA는 통계적인 목표(분산 최대화)를 가진 분석 기법이며, SVD는 그 목표를 달성하기 위한 강력하고 안정적인 수학적 도구입니다. 실제로 데이터의 공분산 행렬을 직접 계산하여 PCA를 수행하는 것보다, 원본 데이터 행렬에 바로 SVD를 적용하여 주성분(Principal Components)을 찾는 방식이 수치..

데이터 분석을 위한 7가지 전통적인 차원 축소 기법

데이터 분석에서 차원 축소는 고차원의 데이터셋을 저차원으로 변환하여 분석을 용이하게 하고, 시각화하며, 계산 비용을 줄이는 중요한 과정입니다. 다음은 널리 사용되는 7가지 전통적인 차원 축소 기법입니다.1. 주성분 분석 (Principal Component Analysis - PCA)주성분 분석(PCA)은 가장 널리 알려진 비지도 학습 기반의 차원 축소 기법입니다. 데이터의 분산(variance)을 가장 잘 보존하는 새로운 좌표축, 즉 '주성분(Principal Component)'을 찾습니다. 첫 번째 주성분은 데이터의 가장 큰 분산을 설명하며, 두 번째 주성분은 첫 번째와 직교하면서 나머지 분산을 가장 잘 설명하는 축입니다. 이 과정을 통해 원본 데이터의 정보를 최대한 유지하면서 차원을 줄일 수 있습..

선형대수학 핵심 개념: 행렬식, 고유값, 계수

선형대수학에서 행렬은 단순히 숫자의 배열이 아니라, 벡터를 다른 벡터로 변환하는 '선형 변환'을 나타냅니다. 행렬식, 고유값, 계수는 이러한 변환의 성질을 파악하는 데 도움을 주는 핵심적인 도구들입니다.1. 행렬식 (Determinant)행렬식은 정사각행렬에 대해서만 정의되는 하나의 스칼라 값입니다. 행렬 $A$의 행렬식은 $\det(A)$ 또는 $|A|$로 표기합니다.기하학적 의미: 행렬식이란 선형 변환이 공간을 얼마나 '확장' 또는 '축소'시키는지를 나타내는 '배율'입니다.2x2 행렬: 변환 후 단위 정사각형이 이루는 평행사변형의 넓이.3x3 행렬: 변환 후 단위 정육면체가 이루는 평행육면체의 부피.만약 행렬식의 값이 0이라면, 해당 변환은 공간을 더 낮은 차원으로 '납작하게' 만듭니다 (예: 3D ..