반응형

Ⅰ. 인공신경망의 개념, 구성요소, 역할

가. 인공신경망의 개념

- 인간두뇌 세포를 모방하여 뉴런들의 상호작용과 경험을 통해 반복학습하는 과정을 모형화하는 분석 기법

 

나. 인공신경망 구성요소 및 역할

구조 구성요소 역할
input layer 입력값 - 모델 학습을 위한 학습 데이터
hidden layer 가중치 - 활성화 함수의 입력값으로 사용되는 뉴런간 연결 계수
활성화 함수 - 임계값을 이용 뉴런의 활성화 여부를 결정하는 함수
output layer 출력값 - 학습을 통해 도출된 결과값

 

Ⅱ. 피드포워드 뉴럴 네트워크 개념 및 절차

가. 피드포워드 뉴럴 네트워크의 개념

- 인공신경망의 최초의 가장 단순한 형태로 입력층에서 출력층으로 단 방향으로 진행하며 학습하는 모델

 

나. 피드포워드 뉴럴 네트워크 절차

구분 절차
순전파 1) 학습 데이터 입력층으로 입력
2) 은닉층 가중치, 편향 연산 및 활성화 함수 연산 반복 수행
3) 연산 결과인 예측값 출력
손실 계산 4) 예측값과 실제 값 차이 손실 함수 활용 오차 계산
역전파 5) 계산된 오차에 따라 경사 하강법 활용 가중치 갱신
반복 학습 6) 오차 기준 만족할 때까지 전 과정 반복

 

Ⅲ. 역전파 개념 및 절차

가. 역전파의 개념

- 모델의 데이터 예측 결과값으로 실제값과의 오차를 구해 이를 토대로 거슬러 올라가며 가중치를 조정하는 방법

 

나 .역전파의 절차

구분 설명
순전파 1) 임의의 초기 가중치 W를 설정한 뒤 학습 데이터를 통해 결과 y_out 계산
역전파 2) 손실 함수를 활용 모델 계산 결과와 실제 값과의 오차 계산
3) 경사 하강법 이용 이전 가중치를 오차가 작아지는 방향으로 업데이트
반복 4) 위 과정을 오차가 줄어들지 않을 때까지 반복

 

Ⅳ. 활성화 함수의 종류 및 역할

활성화 함수 개념도 설명
Sigmoid 함수
- 실수 값을 입력 받아 0과 1 사이 값으로 압축

- 기울기 소멸 문제 발생 가능
Tanh 함수
- 실수 값을 입력 받아 -1과 1 사이 값으로 압축

- 시그모이드에 비해 최적화를 잘하지만 기울기 소멸 문제 존재
ReLU 함수
- 입력값이 0을 넘으로 그대로 출력, 0 이하면 0 출력


- 연산이 빠르고 가장 많이 활용
Leaky ReLU
- ReLU와 유사하지만 입력 값이 0보다 작을 때의 값도 고려

- 깊은 층에서도 손실 없이 정보 전달
반응형

'IT 기술 > 인공지능' 카테고리의 다른 글

딥페이크  (0) 2024.10.24
어텐션 매커니즘  (1) 2024.10.24
생성형 인공지능 위험성, 할루시네이션  (1) 2024.10.11
하이퍼파라미터  (0) 2024.10.11
머신러닝 파이프라인  (1) 2024.10.11
반응형

Ⅰ. 생성형 인공지능 개념과 기술요소

가. 생성형 인공지능의 개념

- 이용자가 요구한 질물이나 과제 해결을 위해 스스로 데이터를 찾아 학습하고 능동적으로 결과물을 제시하는 진화한 인공지능

 

나. 생성형 인공지능의 기술 요소

구분 기술 요소 설명
데이터 벡터 데이터베이스 - AI 모델이 생성한 벡터를 저장하고 검색
- AI 모델의 출력을 저장, 사용자가 쿼리 사용
합성 데이터 - 실제 데이터를 모방한 인공적으로 생성된 데이터
- 실제 데이터 사용 불가능 시 주로 사용
데이터 라벨링 - 신뢰도 높은 모델 학습을 위한 데이터 라벨링
모델 기반 모델 - 대규모 데이터셋 학습 가능한 범용 AI 모델
- GPT3와 같은 대규모 언어 모델이 대표적
모델 감독 - AI 모델의 동작 모니터링 및 설명
- AI 모델이 편향되지 않는지 감독 수행
모델 안전성 - 생성형 AI의 주 위험인 편향된 출력 제거
학습 Fine Tuning - 특정 작업이나 데이터셋에서 모델 추가 학습
- 모델의 성능 향상, 오버피팅 방지

 

Ⅱ. 할루시네이션

가. 할루시네이션 정의 및 발생원인

구분 상세 설명
정의 - 생성형 인공지능 모델이 데이터 오류, 모델의 편향성으로 인해 정확하지 않거나 사실이 아닌 조작된 정보, 오해의 소지가 있는 결과를 생성하는 현상
발생원인 -불충분한 학습 데이터 - 편향되거나 데이터 부족으로 제한된 이해를 바탕으로 학습
- 과적합 인공지능 - 훈련 데이터가 아닌 신규 데이터에 대한 비일반화 출력
- 적대적 공격 - 악의적 공격을 위함 프롬프트 엔지니어링 기법 기반 조작
- 모델 파라미터 - 은닉층 및 하이퍼파라미터의 복잡성으로 인한 오류

 

나. 할루시네이션의 유형

구분 상세 설명
개념도 질문 입력 -> 생성형 AI 모델 -> 부정확 출력
유형 - 직전 내용과 상반되는 내용 생성 - 입력: 풍경을 묘사하세요
- 출력: 바다는 초록색, 바다는 파란색
- 사용자 입력 프롬프트와 상반 - 입력: 동생 생일 축하 문구 작성해줘
- 출력: 엄마, 아빠 결혼 기념일 축하해
- 허구의 정보 사실로 제시 - 입력: 대한민국 수도는
- 출력: 런던
- 입력 맥락과 불일치 - 입력: 제주도를 설명해줘
- 출력: 제주도는 대한민국의 섬입니다. 고양이는 포유류입니다

 

 

Ⅲ. 할루시네이션 해결 방안

가. 할루시네이션 해결 방안 요약

- 해결 방안으로 서비스, 플랫폼, 데이터, 제로적 관점으로 분류

 

나. 할루시네이션 해결 방안 상세 설명

구분 해결 방안 설명
서비스 - 모델 공격 탐지, 방어 - 할루시네이션 유발 공격 쿼리 탐지, 차단 검토
- 적응형 AI 모델 도입 - 실시간 외부 데이터 접근 및 오류 검출, 정정 및 출력 수행
플랫폼 - 프롬프트 엔지니어링 적용 - AI 유효 답변 유도하여 알맞은 결과 생성하도록 적용
- 산업 맞춤형 AI 개발 - 특정 산업별 최적화된 생성형 AI 플랫폼 구성
데이터 - 재현데이터 기반 학습 - 시뮬레이션 통한 데이터 오버 샘플링, 모델 학습 활용
- 데이터 클렌징 수행 - 오염 데이터 제거, 학습에 유효한 신뢰 가능한 데이터 이용
제도 - 설명가능 AI 도입 - AI 출력 결과를 인간이 이해할 수 있는 XAI 도입
- 윤리 가이드라인 제정 - 인공지능 개발 및 활용에 대한 그라운드 룰, 가이드라인 검토

- 다양한 해결 방안 적용으로 보수적인 모델 조정으로 생성형 AI 흥미 감소 우려

반응형

'IT 기술 > 인공지능' 카테고리의 다른 글

어텐션 매커니즘  (1) 2024.10.24
인공신경망  (2) 2024.10.11
하이퍼파라미터  (0) 2024.10.11
머신러닝 파이프라인  (1) 2024.10.11
인공지능 모델의 성능평가  (0) 2024.10.11
반응형

Ⅰ. 효율적 학습을 위한 파라미터와 하이퍼파라미터 비교

가. 파라미터와 하이퍼파라미터 개념 비교

구분 파라미터 하이퍼파라미터
개념 주어진 데이터로부터 학습을 통해 모델 내부에서 결정되는 변수 최적의 모델링을 위해 사용자가 직접 설정해주는 변수
개념도

- 파라미터는 모델에 의해 결정, 하이퍼파라미터는 휴리스틱 기반 직접 설정

 

나. 파라미터와 하이퍼파라미터 특징 비교

구분 파라미터 하이퍼파라미터
목적 - 최적화된 딥러닝 모델 구현 - 모델링 최적화 파라미터 값 도출
생성 주체 - 데이터를 학습한 모델이 생성 - 사용자가 판단하여 직접 생성
종류 - 인공신경망 가중치
- SVM에서 서포트 벡터
- 선형회귀에서 결정계수
- 학습률
- 경사하강법 반복 횟수
- 활성화 함수
조정 여부 - 파라미터 임의 조정 불가 - 하이퍼파라미터 조정 가능

- 하이퍼파라미터 튜닝을 통해 최적의 파라미터 도출 및 딥러닝 모델 생성

 

Ⅱ. 하이퍼파라미터의 종류

종류 설명 고려사항
학습률
(Learning Rate)
기울기의 방향으로 얼마나 빠르게 이동할 것인지 결정하는 변수 너무 작으면 학습 속도 늦고 너무 크면 학습 불가
손실 함수
(Cost Function)
입력에 따른 기대값과 실제값의 차이를 계산하는 함수 - 평균 제곱 오차
- 교차 엔트로피 오차
미니 배치 크기 배치셋 수행을 위해 전체 학습 데이터를 등분하는 크기 가용 메모리 크기와 epoch 수행 성능 고려
정규화 파라미터 과적합 문제 회피 위해 L1, L2 정규화 사용 일반화 변수도 하이퍼파라미터로 분류
훈련 반복 횟수 학습의 조기 종료를 결정하는 변수 학습 효율이 떨어지는 시점을 적절히 판단
은닉층 뉴런 개수 훈련 데이터에 대한 학습 최적화 결정 변수 입력 계층보다 첫 은닉층 뉴런 수가 많은 것이 효과적
가중치 초기화 학습 성능에 대한 결정 변수 모든 초기값이 0일 경우 모든 뉴런이 동일한 결과

- 최적의 딥러닝 모델 생성을 위해 다양한 하이퍼파라미터 튜닝 필수

 

Ⅲ. 하이퍼파라미터의 튜닝 방법

가. 하이퍼파라미터의 튜닝 방법

 

나. 하이퍼파라미터 튜닝 기법

기법 요소 설명
Manual Search 휴리스틱 조합 사용자 직관과 경험 기반 탐색
탐색의 단순성 사용자 도출 조합 중 최적 조합
Grid Search 모든 조합 탐색 하이퍼파라미터 적용 값 전체 탐색
시행횟수 한계 과도한 연산량으로 전체 탐색 한계
Random Search 랜덤 샘플링 범위 내 무작위 값 반복 추출
탐색 범위 부여 하이퍼파라미터 최소값 최대값 부여
Bayesian Optimization 관측 데이터 기반 목적함수 추정 베이즈 정리 활용

 

 

반응형
반응형

Ⅰ. 머신러닝 파이프라인의 개요

가. 머신러닝 파이프라인의 개념

- 데이터 수집부터 전처리, 학습 모델 배포, 예측까지 전 과정을 순차적으로 처리하도록설계된 머신러닝 아키텍처

 

나. 머신러닝 파이프라인의 필요성

머신러닝 자동화: 머신러닝 모델 전 과정 지속 수행 위한 파이프라인 기반 자동화

예측 정확성 향상: 내부 구조 이해를 통한 머신러닝 성능 향상

지속적인 개선: 파이프라인을 통한 신규 데이터 재학습 및 모델 개선

 

Ⅱ. 머신러닝 파이프라인 데이터 처리 흐름 및 주요 활동

가. 머신러닝 파이프라인 데이터 처리 흐름

 

나. 머신러닝 파이프라인 주요활동

단계 활동 세부 설명
데이터 수집 ETL 적용 - 기존 데이터 소스에서 데이터 수집
- 다운로드 데이터, 데이터 소스 추출
데이터 레이크 - 다양한 Raw 데이터 실시간 수집, 전처리, 저장
- 실시간, 배치 데이터, SQL, NoSQL, HDFS
데이터 준비 데이터 정규화 - 사용할 데이터 일관성 확보
편향 분석 - 모델에 포함된 편향성 제거
모델 학습 하이퍼파라미터 적용 - 최적 딥러닝 모델 구현 위해 학습률 등 변수 설정
- 학습률, 손실함수, 정규화, 미니배치, 훈련횟수 등
병렬 처리 - 처리 성능 향상 위해 모델 분산 컴퓨팅 처리
- GPGPU, MXNet, TensorFlow, Torch 프레임워크
모델 배치 클라우드 호스팅 모델 배치 - 데이터센터에 수신되는 데이터대상 예측 생성
- RESTful API 기반 클라우드 인스턴스에서 예측 제공
클라이언트 기반 모델 배치 - 클라이언트에 학습 완료 모델 배치 후 주기적 갱신
- 낮은 대역폭, 네트워크 연결 불가 클라이언트 대상

 

반응형
반응형

Ⅰ. 인공지능 모델 성능평가의 정의

- 실제값과 모델에 의해 예측된 값을 비교하여 두 값의 차이를 구하여 모델의 성능을 평가

 

Ⅱ. 인공지능 모델 성능평가 방법

구분 평가 방법 설명
예측 모델 MSE Mean Squared Error, 실제값과 예측값의 차이를 제곱해 평균
RMSE Root Mean Squared Error, 실제값과 예측값의 차이 제곱 평균에 루트를 씌움
MAE Mean Absolute Error, 실제값과 예측값의 차이를 절댓값으로 변환해 평균
MAPE Mean Absolute Percentage Error, 실제값과 예측값 차이 비율 절대값 백분율
분류 모델 정확도 전체 데이터 중 정확하게 예측한 데이터의 수 TP+TN / TP+TN+FP+FN
정밀도(precision) 참으로 판단한 것 중 진짜 참인 비율, TP / TP + FP
재현율(recall) 진짜 참인 것들 중 올바르게 참으로 판단한 비율, TP/TP + FN
F1-score 정밀도와 재현율을 결합, 1에 가까울수록 좋은 성능
F1 Score = 2*Precision*Recall / (Precision + Recall)
오차 행렬 분류의 예측 범주와 실제 데이터의 분류 범주를 교차표로 정리한 행렬
반응형

'IT 기술 > 인공지능' 카테고리의 다른 글

하이퍼파라미터  (0) 2024.10.11
머신러닝 파이프라인  (1) 2024.10.11
차원의 저주, 차원 축소 알고리즘  (0) 2024.10.11
머신러닝과 딥러닝 차이  (3) 2024.10.11
멀티모달 AI  (2) 2024.10.11
반응형

Ⅰ. 차원의 저주

- 차원이 커질수록 데이터가 Sparse하게 존재하여 학습 데이터의 대표성을 잃고 모델 학습 성능을 저하시키는 현상

 

Ⅱ. 차원 축소 알고리즘

기법 개념도 설명
PCA
(Principal
Component
Analysis)
- 데이터를 축에 사영했을 때 가장 높은 분산을 가지는 데이터의 축을 찾아 그 축으로 차원을 축소
ICA
(Independent
Component
Analysis)
- 다변량의 신호를 통계적으로 독립적인 하부 성분으로 분리하는 계산 방법

- 독립성이 최대가 되는 벡터를 찾는다
LDA
(Linear 
Discriminant
Analysis)
- PCA와 다르게 클래스 분류까지 쉽게 할 수 있도록 차원 축소

- 클래스 내부 분산은 작게, 클래스 간 분산은 크게 만들어 내는 축으로 축소
SVD
(Singular
Value
Decomposition)
- 정방행렬이 아닌 행렬도 적용 가능

- 임의의 m x n차원의 행렬 A에 대해 다음과 같이 행렬을 분해하는 방법

A=UΣVT

반응형

'IT 기술 > 인공지능' 카테고리의 다른 글

머신러닝 파이프라인  (1) 2024.10.11
인공지능 모델의 성능평가  (0) 2024.10.11
머신러닝과 딥러닝 차이  (3) 2024.10.11
멀티모달 AI  (2) 2024.10.11
강화학습  (0) 2024.10.11
반응형

Ⅰ. 머신러닝과 딥러닝의 차이

가. 머신러닝과 딥러닝 학습 과정 차이

 

나. 머신러닝과 딥러닝 상세 차이

구분 머신러닝 딥러닝
개념 - 기계에 데이터를 학습시키고 패턴, 통계적 규칙을 이용하여 예측, 분류, 판단 등의 작업을 수행하는 방법론 - 머신러닝의 한 분야로, 인공 신경망 기반으로 다수의 은닉층을 가진 복잡한 패턴의 모델을 구축 및 학습하고 의사결정을 내리는 방법론
데이터 - 작은 규모의 데이터셋 학습 가능
- 학습 전 데이터 정제, 특징 추출 필요
- 대량의 데이터셋 학습에 필요
- 데이터 정제 및 특징 추출 모델이 자체 수행
자원 - 한정된 하드웨어 자원으로도 수행 가능
- 일반적인 CPU에서도 잘 동작
- 많은 하드웨어 자원 요구
- GPU나 TPU 같은 고성능 하드웨어 요구
모델 - 주로 선형적인 관계 표현
- 의사결정 트리, 서포트 벡터 머신, 나이브 베이즈 등 알고리즘 사용
- 간단하고 해석하기 쉬움
- 주로 비선형적인 관계 표현
- 다층 퍼셉트론, 합성곱 신경망, 순환 신경망, 적대적 생성 모델  등 신경망 기반 아키텍처 사용
- 복잡하고 해석하기 어려움
성능과
유연성
- 특정 문제에 맞는 알고리즘 선택 필수
- 데이터 유형과 문제에 적합한 모델 사용
- 이미지, 음성, 텍스트 같은 비정형 데이터에서 뛰어난 성능
- 문제의 복잡성과 데이터 양 증가할수록 더 나은 성
응용 분야 - 이메일 스팸 필터링
- 금융 사기 탐지
- 상품 추천
- 이미지 및 음성 인식
- 자연어 처리
- 자율 주행

 

 

[참조]

[1] https://kmong.com/article/1327--%EB%A8%B8%EC%8B%A0%EB%9F%AC%EB%8B%9D-%EB%94%A5%EB%9F%AC%EB%8B%9D-%EC%B0%A8%EC%9D%B4%EC%A0%90-5%EA%B0%80%EC%A7%80

[2] https://wooono.tistory.com/m/206

반응형

'IT 기술 > 인공지능' 카테고리의 다른 글

인공지능 모델의 성능평가  (0) 2024.10.11
차원의 저주, 차원 축소 알고리즘  (0) 2024.10.11
멀티모달 AI  (2) 2024.10.11
강화학습  (0) 2024.10.11
생성형 적대 신경망 GAN  (0) 2024.10.11
반응형

Ⅰ. 인간의 인지적 학습법 모방, 멀티모달 AI의 개념

- 이미지, 텍스트, 음성, 비디오 등 다양한 모달리티를 동시에 받아들이고 사고하는 AI 모델

 

Ⅱ. 멀티모달 AI의 개념도 및 종류

가. 멀티모달 AI의 개념도

멀티 모델
- input data의 종류가 1가지이고 여러개의 모델을 거치는 방식
멀티 모달
- input data의 종류가 2가지 이상이며 모델은 1개 또는 2개 이상이 되는 방식

 

나. 멀티모달 AI 종류

종류 개념도 설명
Early Fusion
- 종류가 다른 두 가지 데이터를 하나의 데이터로 먼저 합친 이후 모델 학습
Joint Fusion
- 두 개의 모달리티 데이터를 동시에 학습하지 않고 유연하게 모달리티를 병합

- end-to-end learning
Late Fusion
- 다른 두 가지 데이터를 각각 다른 모델에 학습시킨 이후 나온 결과를 융합해 학습

- 기존의 앙상블모델과 비슷

 

Ⅲ. 멀티 모달의 핵심 기술

처리기술 요소기술 설명
지식/언어지능 - NLP, NLU, NLG
- Word Embedding, Seq2Seq
- 단어 분리, 단어 유형 라벨링, 키워드 검색, 유의어, 반의어, 정보의 분석 및 추출, 관계 추출, 일반 언어 이해
음성/청각 - STT(Speech-To-Text)
- Signal Processing
- 언어 모델, 음성 머신러닝 모델 구축, hot word 자동 인식, 노이즈 필터링
이미지/시각 - Image Processing
- Filtering, Morphology
- 세분화, 이미지 이해, 얼굴 인식, 연령 및 성별 인식, 글자 인식, 이미지 기반 검색, 이미지 기반 예측 분석
추론/기계학습 - 회귀분석, 시계열 분석
- 클러스터링, 연관분석
- 빅데이터 수집 및 처리, KPI 예측, 빅데이터 기반 예측 분석, 머신러닝을 위한 자동 데이터 생성

- 초거대 AI 멀티모달 기술 통해 진화, OpenAI의 DALL-2와 구글의 imagen

 

Ⅳ. 멀티 모달의 핵심 기술

기술 설명 활용 사례
데이터 퓨전 - 다양한 양식의 데이터를 효과적으로 결합 - Early Fusion
- Joint Fusion
- Late Fusion
모달 인코딩 - 다양한 구조의 데이터들을 효과적으로 활용하기 위한 인코딩 기술 필요

- 데이터 특징을 유지하여 정보 손실 최소화
- CNN, NLP, STT
- 음성인식 기술, 영상 처리 기술
크로스-모달 학습 - 이미지, 텍스트, 음성, 영상 등 다른 양식의 데이터 학습

- 다양한 데이터 통합으로 모델 정확도 향상
- 게임, 제품 설계
- 시뮬레이션

 

반응형

'IT 기술 > 인공지능' 카테고리의 다른 글

차원의 저주, 차원 축소 알고리즘  (0) 2024.10.11
머신러닝과 딥러닝 차이  (3) 2024.10.11
강화학습  (0) 2024.10.11
생성형 적대 신경망 GAN  (0) 2024.10.11
시계열 분석  (1) 2024.10.11

+ Recent posts