데이터 반출 없는 다 기관 협업 인공지능 학습 인프라

전체 글 189

DP-17. 가우시안 노이즈에서 프라이버시 손실 관계식 유도

프라이버시 손실 관계 수식 유도차등 정보보호에서 가우시안 메커니즘이 (ε, δ)-DP를 만족할 때, 다음 파라미터들 간의 관계는 어떻게 될까요?$ε$: 프라이버시 손실 예산$δ$: ε-DP가 깨질 수 있는 확률 (프라이버시 손실 예산 초과 확률)$S$: L2-민감도 (인접한 두 데이터셋 $D_1$, $D_2$에 대한 질의 함수 $f$의 결과값 차이를 L2-놈으로 정의할 때 이들 사이의 최댓값)$$S=\max_{D_1,D_2}||f(D_1)-f(D_2)||_2$$$σ$: 노이즈 표준편차프라이버시 손실은 데이터셋 $D_1$와 $D_2$(하나의 레코드만 차이나는 인접 데이터셋)에 대한 질의 함수 $f$의 결과 $o$가 나올 확률의 비율로 정의됩니다. 여기에 로그 함수를 적용하여 확률 변수 $L$을 다음과 같이..

놈(Norm)의 정의와 활용

1. 놈의 도입 배경: '거리'와 '크기'의 일반화우리는 초중고 수학 과정에서 피타고라스 정리를 이용해 2차원 또는 3차원 공간에서 두 점 사이의 거리나 화살표(벡터)의 길이를 구하는 법을 배웠습니다. 예를 들어, 좌표평면 위의 점 (3, 4)에서 원점 (0, 0)까지의 거리는 $\sqrt{3^2+4^2}=5$ 라고 쉽게 계산할 수 있죠. 수학자들은 이러한 '거리' 또는 '크기'라는 직관적인 개념을 우리가 일상적으로 다루는 2차원, 3차원 공간을 넘어 훨씬 더 복잡하고 추상적인 '벡터 공간(Vector Space)'으로 확장하고 싶었습니다. 예를 들어, '함수'들도 하나의 벡터 공간을 이룰 수 있는데, "두 함수의 거리는 얼마일까?" 또는 "이 함수의 전체적인 크기는 얼마일까?"와 같은 질문에 답하기 위..

연관 분석 (Association Analysis) 이해하기

연관 분석은 대규모 데이터 속에서 항목 간의 유의미한 관계, 즉 '연관 규칙(Association Rule)'을 찾아내는 데이터 마이닝 기법입니다. 특히 "기저귀를 산 고객이 맥주도 함께 구매한다"처럼 상품 구매 데이터에서 규칙을 찾는 경우, 이를 장바구니 분석(Market Basket Analysis)이라고 부릅니다.1. 연관 분석이란 무엇인가요?쉽게 말해, 데이터 속에서 'A가 발생했을 때 B가 얼마나 자주 함께 발생하는지'를 분석하여 규칙을 찾아내는 것입니다. 예를 들어, 대형 마트의 거래 데이터에서 "기저귀를 구매한 고객은 맥주도 함께 구매하는 경향이 있다"는 규칙을 발견하는 것이 연관 분석의 대표적인 예입니다. 이러한 규칙은 다음과 같은 다양한 분야에서 활용될 수 있습니다.유통/소매: 상품 진열..

차원 축소 기법 비교: PCA, SVD, ICA 핵심 차이점

세 기법(PCA, SVD, ICA)은 모두 데이터에 내재된 잠재적인 성분(component)이나 기저(basis)를 찾는다는 공통점이 있습니다. 하지만 무엇을 목표로 삼는지와 찾아내는 성분에 어떤 제약 조건을 거는지에서 근본적인 차이가 발생합니다.기법 비교1. PCA와 SVD: 통계 기법과 그것을 푸는 수학 도구두 기법은 수학적으로 매우 밀접하여 종종 혼용되지만, 개념적인 출발점이 다릅니다.관계: PCA는 통계적인 목표(분산 최대화)를 가진 분석 기법이며, SVD는 그 목표를 달성하기 위한 강력하고 안정적인 수학적 도구입니다. 실제로 데이터의 공분산 행렬을 직접 계산하여 PCA를 수행하는 것보다, 원본 데이터 행렬에 바로 SVD를 적용하여 주성분(Principal Components)을 찾는 방식이 수치..

데이터 분석을 위한 7가지 전통적인 차원 축소 기법

데이터 분석에서 차원 축소는 고차원의 데이터셋을 저차원으로 변환하여 분석을 용이하게 하고, 시각화하며, 계산 비용을 줄이는 중요한 과정입니다. 다음은 널리 사용되는 7가지 전통적인 차원 축소 기법입니다.1. 주성분 분석 (Principal Component Analysis - PCA)주성분 분석(PCA)은 가장 널리 알려진 비지도 학습 기반의 차원 축소 기법입니다. 데이터의 분산(variance)을 가장 잘 보존하는 새로운 좌표축, 즉 '주성분(Principal Component)'을 찾습니다. 첫 번째 주성분은 데이터의 가장 큰 분산을 설명하며, 두 번째 주성분은 첫 번째와 직교하면서 나머지 분산을 가장 잘 설명하는 축입니다. 이 과정을 통해 원본 데이터의 정보를 최대한 유지하면서 차원을 줄일 수 있습..