분석 방법론 개요
가.개요
- 데이터 분석이 효과적으로 기업 내에 정착하기 위해서는 이를 체계화한 절차와 방법이 정리된 데이터 분석 방법론의 수립이 필수적이다.
- 프로젝트는 개인의 역량이나 조직의 우연한 성공에 기인해서는 안 되고 , 일정한 수준의 품질을 갖춘 산출물과 프로젝트의 성공 가능성을 확보하고 제시할 수 있어야 한다.
- 방법론은 상세한 절차 ( Procedures ) , 방법 ( Methods ) , 도구와 기법 ( Tools & Techniques ) , 템플릿과 산출물 ( Templates & Outputs ) 로 구성되어 어느 정도의 지식만 있으면 활용이 가능해야 한다.
나.데이터 기반 의사결정의 필요성
1) 경험과 감에 따른 의사결정 --> 데이터 기반의 의사결정
2) 기업의 합리적 의사결정을 가로막는 장애요소 :
고정 관념 ( Stereotype ) , 편향된 생각 ( Bias ) , 프레이밍 효과 ( Framing Effect ) : 문제의 표현 방식에 따라 동일한 사건이나 상황임에도 불구하고 개인의 판단이나 선택이 달라질 수 있는 현상
다. 방법론의 생성과정
암묵지 : 학습과 경험을 통해 개인에게 체화되어 있지만 겉으로 드러나지 않는 지식 , 사회적으로 중요하지만 다른 사람에게 공유되기 어려움 , 공통화 , 내면화
(Ex) 김치 담그기 , 자전거 타기
형식지 : 문서나 메뉴얼처럼 형상화된 지식 , 전달과 공유가 용이함 , 표출화 , 연결화
(Ex) 교과서 , 비디오 , DB
라.방법론의 적용 업무의 특성에 따른 모델
1) 폭포수 모델 ( Waterfall Model )
- 단계를 순차적으로 진행하는 방법으로 , 이전 단계가 완료되어야 다음 단계로 진행될 수 있으며 문제가 발견될 시 피드백 과정이 수행된다.
2) 프로토타입 모델 ( Prototype Model )
- 폭포수 모델의 단점을 보완하기 위해 점진적으로 시스템을 개발해 나가는 접근 방법으로 고객의 요구를 완전하게 이해하고 있지 못하거나 완벽한 요구 분석의 어려움을 해결하기 위해 일부분을 우선 개발하여 사용자에게 제공한다. 시험 사용 후 사용자의 요구를 분석하거나 요구 정당성을 점검,평가하여 그 결과를 통한 개선 작업을 시행하는 모델이다.
3) 나선형 모델 ( Spiral Model )
- 반복을 통해 점증적으로 개발하는 방법으로 처음 시도하는 프로젝트에 적용이 용이하지만, 관리 체계를 효과적으로 갖추지 못한 경우 복잡도가 상승하여 프로젝트 진행이 어려울 수 있다.
마.방법론의 구성
단계 : 최상위 계층으로서 프로세스 그룹을 통하여 완성된 단계별 산출물이 생성된다. 각 단계는 기준선으로 설정되어 관리되어야 하며 , 버전관리 등을 통하여 통제된다 ( 단계별 완료 보고서 )
태스크 : 단계를 구성하는 단위 활동으로써 물리적 또는 논리적 단위로 품질검토의 항목이 된다 ( 보고서 )
스탭 : WBS ( Work Breakdown Structure ) 의 워크 패키지 ( Work Package ) 에 해당되고 , 입력자료 ( input ) , 처리 및 도구 ( Process & Tool ) , 출력자료 ( Output ) 로 구성된 단위 프로세스이다 ( 보고서 구성요소 )
2.KDD 분석 방법론
가.개요
- KDD ( Knowledge Discovery in Database ) 는 1996년 Fayyad 가 프로파일링 기술을 기반으로 데이터로부터 통계적 패턴이나 지식을 찾기 위해 활용할 수 있도록 체계적으로 정리한 데이터 마이닝 프로세스이다. 데이터마이닝 , 기계학습 , 인공지능 , 패턴인식 , 데이터 시각화 등에서 응용 될 수 있는 구조를 갖고 있다.
나.KDD 분석 절차
1) 데이터셋 선택 ( Selection )
- 데이터셋 선택에 앞서 분석 대상의 비즈니스 도메인에 대한 이해와 프로젝트 목표 설정이 필수이며 데이터베이스 또는 원시 데이터에서 분석에 필요한 데이터를 선택하는 단계이다.
- 데이터마이닝에 필요한 목표데이터(target data)를 구성하여 분석에 활용한다.
2) 데이터 전처리 ( Preprocessing )
- 추출된 분석 대상용 데이터 셋에 포함되어 있는 잡음 ( Noise ) 과 이상치 ( Outlier ) , 결측치 ( Mi-ssing value ) 를 식별하고 필요시 제거하거나 의미있는 데이터로 재처리하여 데이터 셋을 정제하는 단계이다.
- 데이터 전처리 단계에서 추가로 요구되는 데이터 셋이 필요한 경우 데이터 선택 프로세스를 재실행한다.
3) 데이터 변환 ( Transformation )
- 데이터 전처리 과정을 통해 정제된 데이터에 분석 목적에 맞게 변수를 생성 , 선택하고 데이터의 차원을 축소하여 효율적으로 데이터 마이닝을 할 수 있도록 데이터에 변경하는 단계이다.
- 데이터마이닝 프로세스를 진행하기 위해 학습용 데이터 ( training data ) 와 검증용데이터 ( test data ) 로 데이터를 분리하는 단계이다.
4) 데이터 마이닝 ( Data Mining )
- 학습용 데이터를 이용하여 분석목적에 맞는 데이터마이닝 기법을 선택하고 , 적절한 알고리즘을 적용하여 데이터마이닝 작업을 실행하는 단계이다.
- 필요에 따라 데이터 전처리와 데이터 변환 프로세스를 추가로 실행하여 최적의 결과를 산출한다.
5) 데이터 마이닝 결과 평가 ( interpretation / Evaluation )
- 데이터마이닝 결과에 대한 해석과 평가 , 분석 목적과의 일치성을 확인한다.
- 데이터마이닝을 통해 발견한 지식을 업무에 활용하기 위한 방안 마련의 단계이다.
- 필요에 따라 데이터 선택 프로세스에서 데이터마이닝 프로세스를 반복 수행한다.
3.CRISP-DM 분석 방법론
가.개요
- CRISP - DM ( Cross Industry Standard Process for Data Mining ) 은 1996년 유럽연합의 ESPRIT에서 있었던 프로젝트에서 시작되었으며 , 주요한 5개의 업체들 ( Maimler - Chryster , SPSS , NCR , Teradata , OHRA ) 이 주도하였다. CRISP-DM은 계층적 프로세스 모델로써 4개 레벨로 구성된다.
나.CRISP-DM 의 4레벨 구조
- 최상위 레벨은 여러 개의 단계 ( Phases ) 로 구성되고 각 단계는 일반화 태스크 ( Generic Tasks ) 를 포함한다. 일반화 태스크는 데이터마이닝의 단일 프로세스를 완전하게 수행하는 단위이며 , 이는 다시 구체적인 수행 레벨인 세분화 태스크 ( Specialized Tasks ) 로 구성된다 .
- 예를 들어 데이터 정제 ( Data Cleansing ) 라는 일반화 태스크는 범주형 데이터 정제와 연속형 데이터 정제와 같은 세분화 태스크로 구성된다 .
- 마지막 레벨인 프로세스 실행 ( process Instances ) 은 데이터마이닝을 위한 구체적인 실행을 포함한다.
다.CRISP - DM의 프로세스
- CRISP - DM 프로세스는 6단계로 구성되어 있으며 , 각 단계는 단방향으로 구성되어 있지 않고 단계 간 피드백을 통하여 단계별 완성도를 높이게 되어 있다.
업무이해 ( Business Understanding ) : 비즈니스 관점에서 프로젝트의 목적과 요구사항을 이해 하기 위한 단계 , 도메인 지식을 데이터 분석을 위한 문제정의로 변경하고 초기 프로젝트 계획을 수립하는 단계 , 업무 목적 파악 , 상황 파악 , 데이터 마이닝 목표 설정 , 프로젝트 계획 수립
데이터 이해 ( Data Understanding ) : 분석을 위ㅏㄴ 데이터를 수집하고 데이터 속성을 이해하기 위한 단계 , 데이터 품질에 대한 문제점을 식별하고 숨겨져 있는 인사이트를 발견하는 단계 , 초기 데이터 수집 , 데이터 기술 분석 , 데이터 탐색 , 데이터 품질 확인
데이터 준비 ( Data Preparation ) : 분석을 위하여 수집된 데이터에서 분석기법에 적합한 데이터를 편성하는 단계 , 분석용 데이터 셋 선택, 데이터 정제 , 분석용 데이터 셋 편성 , 데이터 통합 , 데이터 포맷팅
모델링 ( Modeling ) : 다양한 모델링 기법과 알고리즘을 선택하고 모델링 과정에서 사용되는 파라미터를 최적화해 나가는 단계 , 모델링 과정에서 데이터 셋이 추가로 필요한 경우 데이터 준비 단계를 반복 수행할 수 있으며 , 모델링 결과를 테스트용 데이터 셋으로 평가하여 모델의 과적합 ( Over - fitting ) 문제를 확인 , 모델링 기법 선택 , 모델 테스트 계획 설계 ,모델 작성 , 모델 평가
평가 ( Evaluation ) : 모델링 결과가 프로젝트 목적에 부합하는지 평가하는 단계로 데이터마이닝 결과를 최종적으로 수용할 것인지 판단 , 분석결과 평가 , 모델링 과정 평가 , 모델 적용성 평가
전개 ( Deployment ) : 모델링과 평가 단계를 통하여 완성된 모델을 실 업무에 적용하기 위한 계획을 수립하는 단계 , 모니터링과 모델의 유지보수 계획 마련 , 모델에 적용되는 비즈니스 도메인 특성 , 입력되는 데이터의 품질 편차 , 운영모델의 평가기준에 따라 생명주기 ( Life cycle ) 가 다양하므로 상세한 전개 계획이 필요 , CRISP - DM 의 마지막 단계 프로젝트 종료 관련 프로세스를 수행하여 프로젝트 마무리 , 전개 계획 수립 , 모니터링과 유지보수 계획 수립 , 프로젝트 종료보고서 작성 , 프로젝트 리뷰
4. KDD와 CRISP-DM의 비교
KDD : 분석대상 비즈니스 이해 , 데이터셋 선택 ( Data Selection ) , 데이터 전처리 ( Preprocessing ) , 데이터 변환 ( Transformation ) , 데이터 마이닝 ( Data Mining ) ,데이터 마이닝 결과 평가 ( Interpretation / Evaluation ) , 데이터 마이닝 활용
CRISP-DM : 업무 이해 ( Business Understanding ) , 데이터의 이해 ( Data Understangind ) , 데이터 준비 ( Data Preparation ) , 모델링 ( Modeling ) , 평가 ( Evaluation ) , 전개 ( Deployment )
5. 빅데이터 분석 방법론
가.빅데이터 분석의 계층적 프로세스
1) 단계 ( Phase ) : 프로세스 그룹 ( Process Group ) 을 통하여 완성된 단계별 산출물이 생성된다 . 각 단계는 기준선 ( Baseline ) 으로 설정되어 관리되어야 하며 , 버전관리 ( Configuration Manage-ment ) 등을 통하여 통제가 이루어져야 한다.
2)태스크 ( Task ) : 각 단계는 여러 개의 태스크 ( Task ) 로 구성된다 . 각 태스크는 단계를 구성하는 단위 활동이며 , 물리적 또는 논리적 단위로 품질 검토의 항목이 될 수 있다.
3)스텝 ( Step ) : 처리 및 도구 ( Process & Tool ) , 출력자료 ( Output ) 로 구성된 단위 프로세스 ( Unit - Pro-cess ) 이다
나.빅데이터 분석 방법론 - 5단계
분석기획 ( Planning ) --> 데이터 준비 ( Preparing ) --> 데이터 분석 ( Analyzing ) --> 시스템 구현 ( Developing ) --> 평가 및 전개 ( Deploying )
분석기획 : 비지니스 이해 및 범위 설정 , 프로젝트 정의 및 계획 수립 , 프로젝트 위험계획 수립
데이터 준비 : 필요 데이터 정의 , 데이터 스토어 설계 , 데이터 수집 및 정합성 점검
데이터분석 : 분석용 데이터 준비 , 텍스트 분석 , 탐색적 분석 , 모델링 , 모델 평가 및 검증 , 모델 적용 및 운영방안 수립
시스템 구현 : 설계 및 구현 , 시스템 테스트 및 운영
평가 및 전개 : 모델 발전계획 수립 , 프로젝트 평가 및 보고
1) 분석기획 ( Planning ) : 비즈니스 도메인과 문제점을 인식하고 분석 계획 및 프로젝트 수행계획을 수립하는 단계이다.
2) 데이터준비 ( Preparing ) : 비즈니스 요구사항과 데이터 분석에 필요한 원천 데이터를 정의하고 준비하는 단계이다.
3) 데이터 분석 ( Analyzing ) : 원천 데이터를 분석용 데이터 셋으로 편성하고 다양한 분석 기법과 알고리즘으 이용하여 데이터를 분석하는 단계이다. 분석 단계를 수행하는 과정에서 추가적인 데이터 확보가 필요한 경우 데이터 준비 단계로 피드백 하여 두 단계를 반복하여 진행한다 .
4) 시스템구현 ( Developing ) : 분석 기획에 맞는 모델을 도출하고 이를 운영중인 가동 시스템에 적용하거나 시스템 개발을 위한 사전 검증으로 프로토타입 시스템을 구현한다 .
5) 평가 및 전개 ( Lesson Learned ) : 데이터 분석 및 시스템 구현 단계를 수행한 후 , 프로젝트의 성과를 평가하고 정리 ( Lesson Learned ) 하거나 모델의 발전 계획을 수립하여 차기 분석 기획으로 전달하고 프로젝트를 종료하는 단계이다.
다.단계별 세부단계 및 실제 업무
1) 분석 기획 ( Planning )
- 비즈니스 이해 및 범위 설정
비즈니스 이해 : 내부 업무 매뉴얼과 관련자료 , 외부의 관련 비즈니스 자료를 조사하고 향후 프로젝트 진행을 위한 방향을 설정한다.
(Ex) 업무 매뉴얼 , 전문가 지식 , 빅데이터 분석 대상 도메인의 관련자료 , 자료 수집 및 비즈니스 이해 , 비즈니스 이해 및 도메인 문제점
프로젝트 범위 설정 : 빅데이터 분석 프로젝트의 대상인 비즈니스에 대한 이해와 프로젝트 목적에 부합하는 범위를 설정하고 프로젝트 범위 정의서인 SOW ( Statement Of Work) 를 작성한다 .
(Ex) 중장기 계획서 , 빅데이터 분석 프로젝트 지시서 , 비즈니스 이해 및 도메인 문제점 , 자료 수집 및 비즈니스 이해 , 프로젝트 범위 정의서 작성 절차 , 프로젝트 범위 정의서 ( SOW )
- 프로젝트 정의 및 계획수립
데이터 분석 프로젝트 정의 : 프로젝트의 목표 및 KPI , 목표 수준 등을 구체화하여 상세 프로젝트 정의서를 작성하고 프로젝트 목표를 명확화하기 위한 모델 운영 이미지 및 평가 기준을 설정한다
(Ex) 프로젝트 범위 정의서 (SOW) , 빅데이터 분석 프로젝트 지시서 , 프로젝트 목표 구체화 , 모델 운영 이미지 설계 , 프로젝트 정의서 , 모델 운영 이미지 설계서 , 모델 평가 기준
프로젝트 수행 계획수립 : 프로젝트의 목적 및 배경 , 기대효과 , 수행 방법 , 일정 및 추진조직 , 프로젝트 관리방안을 작성하고 WBS는 프로젝트 산출물 위주로 작성되어 프로젝트의 범위를 명확하게 한다.
(Ex) 프로젝트 범위 정의서 ( SOW ) , 모델 운영 이미지 설계서 , 모델 평가 기준 , 프로젝트 범위 정의서 , WBS 작성 , 프로젝트 수행계획서 , WBS
- 프로젝트 위험계획 수립
데이터 분석 위험 식별 : 앞서 진행된 프로젝트 산출물과 정리 자료를 참조하고 전문가의 판단을 활용해 프로젝트를 진행하며 발생 가능한 위험을 식별한다. 식별된 위험은 위험의 영향도와 빈도 , 발생가능성에 따라 위험의 우선순위를 결정한다
(Ex) 프로젝트 범위 정의서 , 프로젝트 수행 계획서 , 선행 프로젝트 산출물 및 정리자료 , 위험 식별 절차 , 위험 영향도 및 발생 가능성 분석 , 위험 우선순위 판단 , 식별된 위험 목록
위험 대응 계획 수립 : 식별된 위험은 상세한 정량적 , 정성적 분석을 통해 위험 대응방안을 수립한다 예상되는 위험에 대해 회피 ( Avoid ) , 전이 ( Transfer ) , 완화 ( Mitigate ) , 수용 ( Accept ) 으로 구분하여 위험관리 계획서를 작성한다.
(Ex) 식별된 위험 목록 , 프로젝트 범위 정의서 ( SOW ) , 프로젝트 수행 계획서 , 위험 정량적 분석 , 위험 정성적 분석 , 위험 계획서
2) 데이터 준비 ( Preparing )
- 필요 데이터 정의
데이터 정의 : 시스템 , 데이터베이스 , 파일 , 문서 등의 다양한 내 외부 원천 데이터 소스 ( Raw Data Source ) 로 부터 분석에 필요한 데이터를 정의한다.
(Ex) 프로젝트 수행 계획서 , 시스템 설계서 , ERD , 메타데이터 정의서 , 문서 자료 , 내 외부 데이터 정의 , 정형 비정형 반정형 데이터 정의 , 데이터 정의서
데이터 획득방안 수립 : 내 외부의 다양한 데이터 소스로부터 정형 비정형 반정형 데이터를 수집하기 위한 구체적인 방안을 수립한다. 내부 데이터 획득에는 부서 간 업무협조와 개인정보보호 및 정보 보안과 관련한 문제점을 사전에 점검한다. 외부 데이터의 획득은 다양한 인터페이스 및 법적인 문제점을 고려하여 상세한 데이터 획득 계획을 수립한다.
(Ex) 데이터 정의서 , 시스템 설계서 , ERD , 메타데이터 정의서 , 문서 자료 , 데이터 구입 , 데이터 획득 방안 수립 , 데이터 획득 계획서
- 데이터 스토어 설계
정형 데이터 스토어 설계 : 정형 데이터는 일반적으로 관계형 데이터 베이스인 RDBMS ( Relational Data Base Management System ) 를 사용하고 데이터의 효율적인 저장과 활용을 위하여 데이터스토어의 논리적 , 물리적 설계를 구분하여 설계한다.
(Ex) 데이터 정의서 , 데이터 획득 계획서 , 데이터베이스 논리 , 물리 설계 , 데이터 매핑 , 정형 데이터 스토어 설계서 , 데이터 매핑 정의서
비정형 데이터 스토어 설계 : 하둡 , NoSQL 등을 이용하여 비정형 또는 반정형 데이터를 저장하기 위한 논리적 , 물리적 데이터 스토어를 설계한다.
(Ex) 데이터 정의서 , 데이터 획득 계획서 , 비정형 반정형 데이터 논리 , 물리 설계 , 비정형 데이터 스토어 설계서 , 데이터 매핑 정의서
- 데이터 수집 및 정합성 점검
데이터 수집 및 저장 : 크롤링 등 데이터 수집을 위한 ETL 등과 같은 다양한 도구와 API , 스크립트 프로그램 등을 이용하여 데이터를 수집하고 , 수집된 데이터를 설계된 데이터 스토어에 저장한다
(Ex) 데이터 정의서 , 데이터 획득 계획서 , 데이터 스토어 설계서 , 데이터 크롤링 도구 , ETL 도구 , 데이터 수집 스크립트 , 수집된 분석용 데이터
데이터 정합성 점검 : 데이터 스토어의 품질 점검을 통하여 데이터의 정합성을 확보하고 데이터 품질개선이 필요한 부분에 대하여 보완 작업을 한다.
(Ex) 수집된 분석용 데이터 , 데이터 품질 확인 , 정합성 점검 리스트 , 정합성 점검 보고서
3) 데이터 분석
- 분석용 데이터 준비
비즈니스를 확인 : 비즈니스 이해, 도메인 문제저 인식, 프로젝트 정의 등을 이용하여 프로젝트의 목표를 정확하게 인식한다. 세부적인 비즈니스 룰을 파악하고 분석에 필요한 데이터의 범위를 확인한다.
(Ex) 프로젝트 정의서 , 프로젝트 수행 계획서 , 데이터 정의서 , 데이터 스토어 , 프로젝트 목표 확인 , 비즈니스 룰 확인 , 비즈니스 룰 , 분석에 필요한 데이터 범위
분석용 데이터 셋 준비 : 데이터 스토어로부터 분석에 필요한 정형 비정형 데이터를 추출한다. 필요시 적절한 가공을 통하여 분석도구 입력 자료로 사용될 수 있또록 편성한다. 추출된 데이터는 데이터베이스나 구조화된 형태로 구성하고 필요시 분석을 위한 작업 공간 ( Play Ground , Sandbox 등 ) 과 전사 차원의 데이터 스토어로 분리할 수도 있다.
(Ex) 데이터 정의서 , 데이터 스토어 , 데이터 선정 , 데이터 변환 , ETL 도구 , 분석용 데이터 셋
- 텍스트 분석
텍스트 데이터 확인 및 추출 : 데이터 스토어 ( Data Store ) 에서 필요한 텍스트 데이터를 추출한다
(Ex) 비정형 데이터 스토어 , 분석용 텍스트 데이터 확인 , 텍스트 데이터 추출 , 분석용 텍스트 데이터
텍스트 데이터 분석 : 추출된 텍스트 데이터를 분석 도구로 적재하여 다양한 기법을 분석하고 모델을 구축한다. 텍스트 분석을 위해 용어사전을 사전에 확보하고 업무 도메인에 맞도록 작성해야 한다. 구축된 모델은 시각화 도구를 이용하여 모델의 의미전달을 명확하게 한다.
(Ex) 분석용 텍스트 데이터 , 용어사전 ( 유의어 사전 , 불용어 사전 등 ) , 분류체계 설계 , 형태소분석 , 키워드 도출 , 토픽분석 , 감성분석 , 의견분석 , 네트워크 분석 , 텍스트 분석 보고서
- 탐색적 분석
탐색적 데이터 분석 : 다양한 관점 별로 기초 통계량 ( 평균 , 분산 , 표준편차 , 최대값 , 최소값 ) 을 산출하고 , 데이터의 분포와 변수간의 관계 등 데이터 자체의 특성 및 데이터의 통계적 특성을 이해하고 모델링을 위한 기초자료로 활용한다.
(Ex) 분석용 데이터셋 , EDA 도구 , 통계분석 , 연관성 분석 , 데이터 분포 확인 , 데이터 탐색 보고서
데이터 시각화 : 탐색적 데이터 분석을 위한 도구로 활용한다. 그러나 모델의 시스템화를 위한 시각화를 목적으로 활용할 경우 시각화 기획 , 시각화 설계 , 시각화 구현 등의 별도의 프로세스를 따라 진행되어야 한다. 탐색적 데이터 분석을 진행하면 수행된 데이터 시각화는 모델링 또는 향후 시스템 구현을 위한 사용자 인터페이스 또는 프로토타입으로 활용될 수 있다.
(Ex) 분석용 데이터 셋 , 시각화 도구 , 시각화 패키지 , 인포그래픽 , 시각화 방법론 , 데이터 시각화 보고서
- 모델링
데이터 분할 : 모델의 과적합과 일반화를 위하여 분석용 데이터 셋을 모델 개발을 위한 훈련용 데이터와 모델의 검증력을 테스트하기 위한 테스트용 데이터로 분할한다. 모델에 적용하는 기법에 따라 데이터 분할 또는 검증 횟수 , 생성 모델 개수 등을 설정 한다 .
(Ex) 분석용 데이터 셋 , 데이터 분할 패키지 , 훈련용 데이터 , 테스트용 데이터
데이터 모델링 : 기계학습 등을 이용한 데이터 모델링은 훈련용 데이터를 활용하여 분류 , 예측 , 군집 등의 모델을 만들어 가동중인 운영 시스템에 적용한다. 필요시 비정형 데이터 분석결과를 통합적으로 활용하ㅕ 프로젝트 목적에 맞는 통합 모델을 수행한다.
(Ex) 분석용 데이터 셋 , 통계 모델링 기법 , 기계학습 , 모델 테스트 , 모델링 결과 보고서
모델 적용 및 운영 방안 : 모델을 가동중인 운영시스템에 적용하기 위해서는 모델에 대한 상세한 알고리즘 설명서 작성이 필요하다 . 알고리즘 설명서는 시스템 구현 단계에서 중요한 입력 자료로 활용되므로 필요시 의사코드 수준의 상세한 작성이 필요하다 . 또한 모델의 안정적 운영을 모니터링하는 방안도 수립한다.
(Ex) 모델링 결과 보고서 , 모니터링 방안 수립 , 알고리즘 설명서 작성 , 알고리즘 설명서 , 모니터링 방안
- 모델 평가 및 검증
모델 평가 : 프로젝트 정의서의 모델 평가 기준에 따라 모델을 객관적으로 평가하고 품질관리 차원에서 모델 평가 프로세스를 진행한다. 모델 평가를 위해 모델 결과 보고서 내의 알고리즘을 파악하고 테스트용 데이터나 필요시 모델 검증을 위한 별도의 데이터를 활용한다.
(Ex) 모델링 결과 보고서 , 평가용 데이터 , 모델평가 , 모델 품질관리 , 모델 개선작업 , 모델 평가 보고서
모델 검증 : 모델의 실적용성을 검증하기 위해 검증용 데이터를 이용해 모델 검증 작업을 실시하고 모델링 검증 보고서를 작성한다. 검증용 데이터는 모델 개발 및 평가에 활용된 훈련용이나 테스트용 데이터가 아닌 실 운영용 데이터를 확보하여 모델의 품질을 최종 검증한다.
(Ex) 모델링 결과 보고서 , 모델 평가 보고서 , 검증용 데이터
4) 시스템 구현 ( Developing )
- 설계 및 구현
시스템 분석 및 설계 : 가동중인 시스템을 분석하고 알고리즘 설며어에 근거하여 응용시스템 구축 설계 프로세스를 진행한다. 시스템 분석과 설계는 사용 중인 정보시스템 개발 방법론을 커스터마이징하여 적용할 수 있다.
(Ex) 알고리즘 설명서 , 운영중인 시스템 설계서 , 정보시스템 개발 방법론 , 시스템 분석 및 설계서
- 시스템 구현
시스템 분석 및 설계서에 따라 BI 패키지를 활용하거나 새롭게 시스템을 구축하거나 가동중인 운영 시스템의 커스터마이징 등을 통해 설계된 모델을 구현한다.
(Ex) 시스템 분석 및 설계서 , 알고리즘 설명서 , 시스템 통합 개발 도구 ( IDE ) , 프로그램 언어 , 패키지 , 구현 시스템
- 시스템 테스트
구축된 시스템의 검증을 위하여 단위 테스트 , 통합 테스트 , 시스템 테스트 등을 실시한다. 시스템 테스트는 품질 관리 차원에서 진행함으로써 적용된 시스템의 객관성과 완전성을 확보한다.
(Ex) 구현 시스템 , 시스템 테스트 계획서 , 품질관리 활동 , 시스템 테스트 결과보고서
- 시스템 운영 계획
구현된 시스템을 지속적으로 활용하기 위해 시스템 운영자 , 사용자를 대상으로 필요한 교육을 실시하고 시스템 운영계획을 수립한다.
(Ex) 시스템 분석 및 설계서 , 구현시스템 , 운영계획 수립 , 운영자 및 사용자교육 , 운영자 매뉴얼 , 사용자 매뉴얼 , 시스템 운영 계획서
5) 평가 및 전개 ( Deploying )
- 모델 발전 계획 : 개발된 모델의 지속적인 운영과 기능 향상을 위한 발전계획을 상세하게 수립하여 모델의 계속성을 확보한다.
(Ex) 구현 시스템 , 프로젝트 산출물 , 모델 발전 계획 수립 , 모델 발전 계획서
- 프로젝트 성과평가 : 프로젝트의 정량적 성과와 정성적 성과로 나누어 성과 평가서를 작성한다.
(Ex) 프로젝트 평가기준 , 프로젝트 정량적 평가 , 프로젝트 정성적 평가 , 프로젝트 성과 평가서
- 프로젝트 종료 : 프로젝트 진행과정의 모든 산출물 및 프로세스를 지식 자산화하고 최종 보고서를 작성하여 의사소통 절차에 따라 보고하고 종료한다.
(Ex) 프로젝트 산출물 , 품질관리 산출물 , 프로젝트 정의서 , 프로젝트 수행 계획서 , 프로젝트 성과 평가서 , 프로젝트 지식자산화 작업 , 프로젝트 종료 , 프로젝트 최종 보고서
'자격증 > ADSP' 카테고리의 다른 글
데이터 분석 준전문가(adsp) - 분석 프로젝트 관리 방안 (0) | 2020.01.17 |
---|---|
데이터 분석 준전문가(adsp) - 분석 과제 발굴 (0) | 2020.01.17 |
데이터 분석 준전문가(adsp) - 분석기획 방향성 도출 (0) | 2020.01.14 |
데이터 분석 준전문가(adsp) - 최신 빅데이터 상식 (0) | 2020.01.13 |
데이터 분석 준전문가(adsp) - 빅데이터 그리고 데이터 사이언스의 미래 (0) | 2020.01.13 |
#IT #먹방 #전자기기 #일상
#개발 #일상