반응형

Ⅰ. 애자일 방법론의 스크럼

구분 설명
개념 - product backlog를 sprint backlog로 분할하여 주기적으로 릴리즈 수행하는 애자일 개발방법론
개념도
구성요소 - product owner, scrum master, team
- sprint planning, daily scrum, sprint review
단위 - sprint backlog
관리 - burn down chart

 

Ⅱ. 애자일 방법론의 칸반

구분 설명
개념 - 칸반보드를 통해 개발 과정을 시각화하고 WIP 제한으로 workflow 관리 최적화하는 개발방법론
개념도
구성요소 - 칸반보드, WIP 제한, 열
단위 - WIP 제한을 통한 작업량 조절
관리 - Workflow 가시화와 WIP 제한

 

Ⅲ. 스크럼과 칸반 비교

구분 스크럼 칸반
목적 프로젝트 일정과 범위 관리 작업 흐름 최적화
역할 역할 규정하여 프로젝트 진행 역할 따로 규성하지 않고 진행
일정 기간 정의된 스프린크로 관리 워크플로우 상태별 WIP 제한
주기 스프린트 (평균 2-4주) 없음 (업무 흐름에 따라)
유연성 스프린트 내에 변경 불가 칸반 보드에서 변경 가능
시각화 일반적으로 사용하지 않음 칸반보드를 통해 작업 상태 시각화
반응형

'IT 기술 > IT 경영전략' 카테고리의 다른 글

ITSM (IT Service Management)  (2) 2024.10.16
프로젝트 위험 관리  (2) 2024.10.16
XP(eXtreme Programming)  (1) 2024.10.15
ISP ISMP 8th  (0) 2024.08.21
TAM-SAM-SOM 프레임워크 (시장 규모 추정 방법)  (0) 2024.08.20
반응형

Ⅰ. 유연하고 신속한 개발 방법론, XP의 개요

가. XP의 정의

- 의사소통과 테스트 주도 개발을 기반으로 짧은 개발 주기를 통해 소프트웨어 생산하는 대표적인 애자일 개발 방법론

 

나. XP의 핵심 가치

핵심가치 설명
고객 요구사항에 능동적인 대처
순성 부가 기능, 사용되지 않는 구조 알고리즘 배제
뮤니케이션 공통의 메타포 사용, 페어 프로그래밍 등 의사소통
드백 빠른 피드백을 원칙으로 문제 해결
구성원 상호간의 존중, 프로젝트 존중

 

Ⅱ. XP의 개념도 및 구성요소

가. XP의 개념도

나. XP의 구성요소

요소 설명
유저 스토리 - 고객이 필요한 것이 무엇인지를 기술(요구사항)
- 릴리즈 계획 작성하기 위한 단위
스파이크 - 잠재적 솔루션 고려위해 작성하는 간단한 프로그램(프로토타입)
- 사용자 스토리 신뢰성 증대, 기술적 문제 감소 목적
배포계획 - 전체 프로젝트 배포 계획 작성
- 의사결정 등 모든 규칙 포함
반복 - 1-3주 정도로 나누어 반복 균형적 유지 개발
- 프로세스 평가와 계획을 단순하고 신뢰성 있게 개발
인수 테스트 - 고객은 작동하는 시스템을 보면서 진척 확인
- 고객이 직접 명세한 테스트 통과 파악
소규모 배포 - 짧은 사이클, 소규모의 빈번한 배포를 통해 고객에게 이득 조기 제공
- 프로그램 빠른 피드백으로 보완

 

Ⅲ. XP의 실천 항목

구분 실천 항목 설명
개발 페어 프로그래밍 두명이 한 컴퓨터에서 개발(오류 감소, 생산성 향상)
공동 책임 시스템 코드는 누구든지 책임지고 수정가능
지속적 통합 하루 몇번이라도 지속적으로 통합 빌드
관리 게임 계획 유저 스토리 이용 다음 릴리즈 빠르게 결정
작은 릴리즈 필요한 기능 갖춘 간단한 시스템 빠르게 릴리즈
메타포 문장형태로 시스템 아키텍처 기술(의사소통)
구현 단순한 디자인 요구사항 만족하도록 가능한 단순하게 설계
테스트 주도 개발 고객 요구사항에 대한 테스트 검증, 승인
리펙토링 기능 변화 없이 코드 수정으로 디자인 개선
환경 40시간 작업 주 40시간 작업으로 오버타임 금지
고객상주 고객이 프로젝트에 풀타임 상주, 의사결정 지원
기타 코딩 표준화 표준화된 코드로 의사소통 향상
반응형

'IT 기술 > IT 경영전략' 카테고리의 다른 글

프로젝트 위험 관리  (2) 2024.10.16
Agile 방법론의 스크럼과 칸반  (0) 2024.10.15
ISP ISMP 8th  (0) 2024.08.21
TAM-SAM-SOM 프레임워크 (시장 규모 추정 방법)  (0) 2024.08.20
PMO (Project Management Office)  (0) 2024.08.19
반응형

Ⅰ. 인공신경망의 개념, 구성요소, 역할

가. 인공신경망의 개념

- 인간두뇌 세포를 모방하여 뉴런들의 상호작용과 경험을 통해 반복학습하는 과정을 모형화하는 분석 기법

 

나. 인공신경망 구성요소 및 역할

구조 구성요소 역할
input layer 입력값 - 모델 학습을 위한 학습 데이터
hidden layer 가중치 - 활성화 함수의 입력값으로 사용되는 뉴런간 연결 계수
활성화 함수 - 임계값을 이용 뉴런의 활성화 여부를 결정하는 함수
output layer 출력값 - 학습을 통해 도출된 결과값

 

Ⅱ. 피드포워드 뉴럴 네트워크 개념 및 절차

가. 피드포워드 뉴럴 네트워크의 개념

- 인공신경망의 최초의 가장 단순한 형태로 입력층에서 출력층으로 단 방향으로 진행하며 학습하는 모델

 

나. 피드포워드 뉴럴 네트워크 절차

구분 절차
순전파 1) 학습 데이터 입력층으로 입력
2) 은닉층 가중치, 편향 연산 및 활성화 함수 연산 반복 수행
3) 연산 결과인 예측값 출력
손실 계산 4) 예측값과 실제 값 차이 손실 함수 활용 오차 계산
역전파 5) 계산된 오차에 따라 경사 하강법 활용 가중치 갱신
반복 학습 6) 오차 기준 만족할 때까지 전 과정 반복

 

Ⅲ. 역전파 개념 및 절차

가. 역전파의 개념

- 모델의 데이터 예측 결과값으로 실제값과의 오차를 구해 이를 토대로 거슬러 올라가며 가중치를 조정하는 방법

 

나 .역전파의 절차

구분 설명
순전파 1) 임의의 초기 가중치 W를 설정한 뒤 학습 데이터를 통해 결과 y_out 계산
역전파 2) 손실 함수를 활용 모델 계산 결과와 실제 값과의 오차 계산
3) 경사 하강법 이용 이전 가중치를 오차가 작아지는 방향으로 업데이트
반복 4) 위 과정을 오차가 줄어들지 않을 때까지 반복

 

Ⅳ. 활성화 함수의 종류 및 역할

활성화 함수 개념도 설명
Sigmoid 함수
- 실수 값을 입력 받아 0과 1 사이 값으로 압축

- 기울기 소멸 문제 발생 가능
Tanh 함수
- 실수 값을 입력 받아 -1과 1 사이 값으로 압축

- 시그모이드에 비해 최적화를 잘하지만 기울기 소멸 문제 존재
ReLU 함수
- 입력값이 0을 넘으로 그대로 출력, 0 이하면 0 출력


- 연산이 빠르고 가장 많이 활용
Leaky ReLU
- ReLU와 유사하지만 입력 값이 0보다 작을 때의 값도 고려

- 깊은 층에서도 손실 없이 정보 전달
반응형

'IT 기술 > 인공지능' 카테고리의 다른 글

딥페이크  (0) 2024.10.24
어텐션 매커니즘  (1) 2024.10.24
생성형 인공지능 위험성, 할루시네이션  (1) 2024.10.11
하이퍼파라미터  (0) 2024.10.11
머신러닝 파이프라인  (1) 2024.10.11
반응형

Ⅰ. 생성형 인공지능 개념과 기술요소

가. 생성형 인공지능의 개념

- 이용자가 요구한 질물이나 과제 해결을 위해 스스로 데이터를 찾아 학습하고 능동적으로 결과물을 제시하는 진화한 인공지능

 

나. 생성형 인공지능의 기술 요소

구분 기술 요소 설명
데이터 벡터 데이터베이스 - AI 모델이 생성한 벡터를 저장하고 검색
- AI 모델의 출력을 저장, 사용자가 쿼리 사용
합성 데이터 - 실제 데이터를 모방한 인공적으로 생성된 데이터
- 실제 데이터 사용 불가능 시 주로 사용
데이터 라벨링 - 신뢰도 높은 모델 학습을 위한 데이터 라벨링
모델 기반 모델 - 대규모 데이터셋 학습 가능한 범용 AI 모델
- GPT3와 같은 대규모 언어 모델이 대표적
모델 감독 - AI 모델의 동작 모니터링 및 설명
- AI 모델이 편향되지 않는지 감독 수행
모델 안전성 - 생성형 AI의 주 위험인 편향된 출력 제거
학습 Fine Tuning - 특정 작업이나 데이터셋에서 모델 추가 학습
- 모델의 성능 향상, 오버피팅 방지

 

Ⅱ. 할루시네이션

가. 할루시네이션 정의 및 발생원인

구분 상세 설명
정의 - 생성형 인공지능 모델이 데이터 오류, 모델의 편향성으로 인해 정확하지 않거나 사실이 아닌 조작된 정보, 오해의 소지가 있는 결과를 생성하는 현상
발생원인 -불충분한 학습 데이터 - 편향되거나 데이터 부족으로 제한된 이해를 바탕으로 학습
- 과적합 인공지능 - 훈련 데이터가 아닌 신규 데이터에 대한 비일반화 출력
- 적대적 공격 - 악의적 공격을 위함 프롬프트 엔지니어링 기법 기반 조작
- 모델 파라미터 - 은닉층 및 하이퍼파라미터의 복잡성으로 인한 오류

 

나. 할루시네이션의 유형

구분 상세 설명
개념도 질문 입력 -> 생성형 AI 모델 -> 부정확 출력
유형 - 직전 내용과 상반되는 내용 생성 - 입력: 풍경을 묘사하세요
- 출력: 바다는 초록색, 바다는 파란색
- 사용자 입력 프롬프트와 상반 - 입력: 동생 생일 축하 문구 작성해줘
- 출력: 엄마, 아빠 결혼 기념일 축하해
- 허구의 정보 사실로 제시 - 입력: 대한민국 수도는
- 출력: 런던
- 입력 맥락과 불일치 - 입력: 제주도를 설명해줘
- 출력: 제주도는 대한민국의 섬입니다. 고양이는 포유류입니다

 

 

Ⅲ. 할루시네이션 해결 방안

가. 할루시네이션 해결 방안 요약

- 해결 방안으로 서비스, 플랫폼, 데이터, 제로적 관점으로 분류

 

나. 할루시네이션 해결 방안 상세 설명

구분 해결 방안 설명
서비스 - 모델 공격 탐지, 방어 - 할루시네이션 유발 공격 쿼리 탐지, 차단 검토
- 적응형 AI 모델 도입 - 실시간 외부 데이터 접근 및 오류 검출, 정정 및 출력 수행
플랫폼 - 프롬프트 엔지니어링 적용 - AI 유효 답변 유도하여 알맞은 결과 생성하도록 적용
- 산업 맞춤형 AI 개발 - 특정 산업별 최적화된 생성형 AI 플랫폼 구성
데이터 - 재현데이터 기반 학습 - 시뮬레이션 통한 데이터 오버 샘플링, 모델 학습 활용
- 데이터 클렌징 수행 - 오염 데이터 제거, 학습에 유효한 신뢰 가능한 데이터 이용
제도 - 설명가능 AI 도입 - AI 출력 결과를 인간이 이해할 수 있는 XAI 도입
- 윤리 가이드라인 제정 - 인공지능 개발 및 활용에 대한 그라운드 룰, 가이드라인 검토

- 다양한 해결 방안 적용으로 보수적인 모델 조정으로 생성형 AI 흥미 감소 우려

반응형

'IT 기술 > 인공지능' 카테고리의 다른 글

어텐션 매커니즘  (1) 2024.10.24
인공신경망  (2) 2024.10.11
하이퍼파라미터  (0) 2024.10.11
머신러닝 파이프라인  (1) 2024.10.11
인공지능 모델의 성능평가  (0) 2024.10.11
반응형

Ⅰ. 효율적 학습을 위한 파라미터와 하이퍼파라미터 비교

가. 파라미터와 하이퍼파라미터 개념 비교

구분 파라미터 하이퍼파라미터
개념 주어진 데이터로부터 학습을 통해 모델 내부에서 결정되는 변수 최적의 모델링을 위해 사용자가 직접 설정해주는 변수
개념도

- 파라미터는 모델에 의해 결정, 하이퍼파라미터는 휴리스틱 기반 직접 설정

 

나. 파라미터와 하이퍼파라미터 특징 비교

구분 파라미터 하이퍼파라미터
목적 - 최적화된 딥러닝 모델 구현 - 모델링 최적화 파라미터 값 도출
생성 주체 - 데이터를 학습한 모델이 생성 - 사용자가 판단하여 직접 생성
종류 - 인공신경망 가중치
- SVM에서 서포트 벡터
- 선형회귀에서 결정계수
- 학습률
- 경사하강법 반복 횟수
- 활성화 함수
조정 여부 - 파라미터 임의 조정 불가 - 하이퍼파라미터 조정 가능

- 하이퍼파라미터 튜닝을 통해 최적의 파라미터 도출 및 딥러닝 모델 생성

 

Ⅱ. 하이퍼파라미터의 종류

종류 설명 고려사항
학습률
(Learning Rate)
기울기의 방향으로 얼마나 빠르게 이동할 것인지 결정하는 변수 너무 작으면 학습 속도 늦고 너무 크면 학습 불가
손실 함수
(Cost Function)
입력에 따른 기대값과 실제값의 차이를 계산하는 함수 - 평균 제곱 오차
- 교차 엔트로피 오차
미니 배치 크기 배치셋 수행을 위해 전체 학습 데이터를 등분하는 크기 가용 메모리 크기와 epoch 수행 성능 고려
정규화 파라미터 과적합 문제 회피 위해 L1, L2 정규화 사용 일반화 변수도 하이퍼파라미터로 분류
훈련 반복 횟수 학습의 조기 종료를 결정하는 변수 학습 효율이 떨어지는 시점을 적절히 판단
은닉층 뉴런 개수 훈련 데이터에 대한 학습 최적화 결정 변수 입력 계층보다 첫 은닉층 뉴런 수가 많은 것이 효과적
가중치 초기화 학습 성능에 대한 결정 변수 모든 초기값이 0일 경우 모든 뉴런이 동일한 결과

- 최적의 딥러닝 모델 생성을 위해 다양한 하이퍼파라미터 튜닝 필수

 

Ⅲ. 하이퍼파라미터의 튜닝 방법

가. 하이퍼파라미터의 튜닝 방법

 

나. 하이퍼파라미터 튜닝 기법

기법 요소 설명
Manual Search 휴리스틱 조합 사용자 직관과 경험 기반 탐색
탐색의 단순성 사용자 도출 조합 중 최적 조합
Grid Search 모든 조합 탐색 하이퍼파라미터 적용 값 전체 탐색
시행횟수 한계 과도한 연산량으로 전체 탐색 한계
Random Search 랜덤 샘플링 범위 내 무작위 값 반복 추출
탐색 범위 부여 하이퍼파라미터 최소값 최대값 부여
Bayesian Optimization 관측 데이터 기반 목적함수 추정 베이즈 정리 활용

 

 

반응형
반응형

Ⅰ. 머신러닝 파이프라인의 개요

가. 머신러닝 파이프라인의 개념

- 데이터 수집부터 전처리, 학습 모델 배포, 예측까지 전 과정을 순차적으로 처리하도록설계된 머신러닝 아키텍처

 

나. 머신러닝 파이프라인의 필요성

머신러닝 자동화: 머신러닝 모델 전 과정 지속 수행 위한 파이프라인 기반 자동화

예측 정확성 향상: 내부 구조 이해를 통한 머신러닝 성능 향상

지속적인 개선: 파이프라인을 통한 신규 데이터 재학습 및 모델 개선

 

Ⅱ. 머신러닝 파이프라인 데이터 처리 흐름 및 주요 활동

가. 머신러닝 파이프라인 데이터 처리 흐름

 

나. 머신러닝 파이프라인 주요활동

단계 활동 세부 설명
데이터 수집 ETL 적용 - 기존 데이터 소스에서 데이터 수집
- 다운로드 데이터, 데이터 소스 추출
데이터 레이크 - 다양한 Raw 데이터 실시간 수집, 전처리, 저장
- 실시간, 배치 데이터, SQL, NoSQL, HDFS
데이터 준비 데이터 정규화 - 사용할 데이터 일관성 확보
편향 분석 - 모델에 포함된 편향성 제거
모델 학습 하이퍼파라미터 적용 - 최적 딥러닝 모델 구현 위해 학습률 등 변수 설정
- 학습률, 손실함수, 정규화, 미니배치, 훈련횟수 등
병렬 처리 - 처리 성능 향상 위해 모델 분산 컴퓨팅 처리
- GPGPU, MXNet, TensorFlow, Torch 프레임워크
모델 배치 클라우드 호스팅 모델 배치 - 데이터센터에 수신되는 데이터대상 예측 생성
- RESTful API 기반 클라우드 인스턴스에서 예측 제공
클라이언트 기반 모델 배치 - 클라이언트에 학습 완료 모델 배치 후 주기적 갱신
- 낮은 대역폭, 네트워크 연결 불가 클라이언트 대상

 

반응형
반응형

Ⅰ. 인공지능 모델 성능평가의 정의

- 실제값과 모델에 의해 예측된 값을 비교하여 두 값의 차이를 구하여 모델의 성능을 평가

 

Ⅱ. 인공지능 모델 성능평가 방법

구분 평가 방법 설명
예측 모델 MSE Mean Squared Error, 실제값과 예측값의 차이를 제곱해 평균
RMSE Root Mean Squared Error, 실제값과 예측값의 차이 제곱 평균에 루트를 씌움
MAE Mean Absolute Error, 실제값과 예측값의 차이를 절댓값으로 변환해 평균
MAPE Mean Absolute Percentage Error, 실제값과 예측값 차이 비율 절대값 백분율
분류 모델 정확도 전체 데이터 중 정확하게 예측한 데이터의 수 TP+TN / TP+TN+FP+FN
정밀도(precision) 참으로 판단한 것 중 진짜 참인 비율, TP / TP + FP
재현율(recall) 진짜 참인 것들 중 올바르게 참으로 판단한 비율, TP/TP + FN
F1-score 정밀도와 재현율을 결합, 1에 가까울수록 좋은 성능
F1 Score = 2*Precision*Recall / (Precision + Recall)
오차 행렬 분류의 예측 범주와 실제 데이터의 분류 범주를 교차표로 정리한 행렬
반응형

'IT 기술 > 인공지능' 카테고리의 다른 글

하이퍼파라미터  (0) 2024.10.11
머신러닝 파이프라인  (1) 2024.10.11
차원의 저주, 차원 축소 알고리즘  (0) 2024.10.11
머신러닝과 딥러닝 차이  (3) 2024.10.11
멀티모달 AI  (2) 2024.10.11
반응형

Ⅰ. 차원의 저주

- 차원이 커질수록 데이터가 Sparse하게 존재하여 학습 데이터의 대표성을 잃고 모델 학습 성능을 저하시키는 현상

 

Ⅱ. 차원 축소 알고리즘

기법 개념도 설명
PCA
(Principal
Component
Analysis)
- 데이터를 축에 사영했을 때 가장 높은 분산을 가지는 데이터의 축을 찾아 그 축으로 차원을 축소
ICA
(Independent
Component
Analysis)
- 다변량의 신호를 통계적으로 독립적인 하부 성분으로 분리하는 계산 방법

- 독립성이 최대가 되는 벡터를 찾는다
LDA
(Linear 
Discriminant
Analysis)
- PCA와 다르게 클래스 분류까지 쉽게 할 수 있도록 차원 축소

- 클래스 내부 분산은 작게, 클래스 간 분산은 크게 만들어 내는 축으로 축소
SVD
(Singular
Value
Decomposition)
- 정방행렬이 아닌 행렬도 적용 가능

- 임의의 m x n차원의 행렬 A에 대해 다음과 같이 행렬을 분해하는 방법

A=UΣVT

반응형

'IT 기술 > 인공지능' 카테고리의 다른 글

머신러닝 파이프라인  (1) 2024.10.11
인공지능 모델의 성능평가  (0) 2024.10.11
머신러닝과 딥러닝 차이  (3) 2024.10.11
멀티모달 AI  (2) 2024.10.11
강화학습  (0) 2024.10.11

+ Recent posts