본문 바로가기

ADSP

PART 02. 데이터 분석 기획

1장 데이터 분석 기획의 이해

1절 분석기획 방향성 도출

1. 분석기획의 특징

가. 분석기획이란?(계획수립)

 ˙ 실제 분석을 수행하기 앞서 분석을 수행할 과제를 정의하고, 의도했던 결과를 도출할 수 있도록 이를 적절하게 관리할 수 있는 방안을 사전에 계획하는 일련의 작업

나. 데이터 사언티스트의 역량

 ˙ 데이터 사이언티스트는 수학/통계적 지식 및 정보기술(IT기술, 해킹기술, 통신기술 등) 뿐만 아니라 해당 비즈니스에 대한 이해와 전문성을 포함한 3가지 영역에 대한 고른 역량과 시각이 요구

 

 

2. 분석 대상과 방법

분석의 대상(What)분석의 방법(How)
KnownUn-Known 

→ 분석 대상 및 분석 방법을 이해하고 현문제를 최적화 하는 형태로 수행

→ 분석대상이 불분명하고, 분석방법을 알고 있는 경우 인사이트 도출
Known

→ 분석과제는 수행되고 분석방법을 알지 못하는 경우 솔루션을 찾는 방식으로 분석과제 수행

→ 분석대상, 방법을 모른다면 발견을 통하여 분석대상 자체를 새롭게 도출
Un-Known

3. 목표시점 별 분석 기획 방안

 ˙ 목표시점 별로는 당면한 과제를 빠르게 해결하는 "과제 중심적인 접근 방식"과 지속적인 분석 내재화를 위한 "장기적인 마스터 플랜 방식"으로 나눔

 ˙ 마스터 플랜 접근방식을 융합하여 적용

당면 분석 주제의 해결 (과제단위) 지속적 분석 문화 내재화 (마스터 플랜 단위)
Speed&Test1차 목표Accuract&Deploy
Quick&Win과제의 유형Long Term View
Problem Solving접근 방식Problem Definition

 ˙ 프로세스의 진행과정에서 일반적인 상식과 경험으로 원인이 명백한 경우 불합리한 요소를 계단단계까지 미루지 않고 바로 계단함으로써 과제를 달성하고 추진하는 과정

4. 분석 기획시 고려사항

* 데이터의 유형

 ˙ 정형데이터(DB로 정제된 데이터)

 ˙ 반정형데이터(xml, log)

 ˙ 비정형데이터(text, image, 음성)

가. 가용데이터(Available Data)

 ˙ 분석을 위한 데이터 확보가 우선적이며, 데이터의 유형에 따라 적용 가능한 솔루션 및 분석방법이 다르기 때문에 유형에 대한 분석이 선행적으로 이루어져야 한다.

나. 적절한 활용방안과 유즈케이스

 ˙ 유사분석시나리오 및 솔루션을 최대한 활용하는 것이 중요

다. 장애요소들에 대한 사전계획 수립

 ˙ 조직의 역량으로 내재화하기 위해서는 충분하고 계속적인 교육 및 활용방안등의 변화관리가 고려

 ˙ 정확도를 올리기 위한 비용 사전 고려

종류정형데이터반정형 데이터비정형 데이터
특징

 ˙ 데이터베이스로 관리
 ˙ 데이터로 분석이 가능하지만 해석이 불가능하며 메타정보를 활용해야 해석이 가능
 ˙ 특정한 처리 프로세스를 거처 분석데이터로 변경 후 분석
유형 ˙ RDBM ˙ log, xml ˙ text, image, 음성

2절 분석방법론

1, 분석 방법론 개요

가. 개요

 ˙ 체계화한 절차와 방법

 ˙ 분석방법론의 수립

 ˙ 방법론은 절차(Procedure), 방법(Methods), 도구와 기법(Tools&Techniques), 템플릿과 산출물(Templates&Outputs)

나. 데이터 기반 의사결정의 필요성

2) 기업의 합리적 의사결정을 가로막는 장애요소 : 고정관념(Stereotype), 편향된 생각(Bias), 프레이밍 효과(Framing Effect : 문제의 표현 방식에 따라 동일한 사건이나 상황임에도 불구하고 개인의 판단이나 선택이 달라질 수 있는 현상) 등

다. 방법론의 생성과정

 

 

라. 방법론의 적용 업무의 특성에 따른 모델

1) 폭포수 모델(Waterfall Model)

 ˙ 단계를 순차적으로 진행하는 방법

2) 프로토타입 모델(Prototype Model)

 ˙ 고객의 요구 일부분을 우선 개발하여 그 결과를 통한 개선작업

3) 나선형 모델(Spiral Model)

 ˙ 반복을 통해 점증적으로 개발

2. KDD분석 방법론

가. 개요

 ˙ KDD(Knowledge Discovery in Database)는 1996년 Fayyad가 프로파일링 기술을 기반으로 데이터로부터 통계적 패턴이나 지식을 찾기 위해 활용할 수 있도록 체계적으로 정리한 데이터 마이닝 프로세스

 ˙ 데이터마이닝, 기계학습, 인공지능, 패턴인식, 데이터 시각화 등에서 응용 될 수 있는 구조

 ˙ DB를 중심으로 해서 insight를 도출해내는 절차/방법

 ˙ RDBMS 사용

나. KDD분석 절차

 

 

1) 데이터셋 선택(Selection)

  ˙ 분석 대상의 비즈니스 도메인에 대한 이해와 프로젝트 목표 설정이 필수

  ˙ 분석에 필요한 데이터를 선택하는 단계

  ˙ 목표데이터(Target Data)를 구성

2) 데이터 전처리(Preprocessing)

  ˙ 잡음(Noise)과 이상치(Outlier), 결측치(Missing Value)를 식별하고 필요시 제거하거나 의미있는 데이터로 재처리

3) 데이터 변환(Transformation)

 ˙ 변수를 생성, 선택하고 데이터의 차원을 축소

4) 데이터 마이닝(Data Mining)

 ˙ 분석목적에 맞는 데이터마이닝 기법을 선택

 ˙ 데이터 패턴 찾기, 데이터분류, 예측작업 시행

5) 데이터 마이닝 결과 평가(Interpretation/Evaluation)

 ˙ 데이터마이닝 결과에 대한 해석과 평가, 그리고 분석목적과의 일치성을 확인

3. CRISP-DM 분석 방법론

가. 개요

 ˙ 1996년 유럽연합의 ESPRIT에서 있었던 프로젝트에서 시작

 ˙ 계층적 프로세스 모델로써 4개 레벨로 구성

다. CRISP-DM 프로세스

 

 

단계내용수행업무


Understanding

 ˙ 초기프로젝트 계획을 수립하는 단계
업무 목적파악, 상황파악, 데이터마이닝 목표설정, 프로젝트 계획수립


Understanding

 ˙ 데이터 품질에 대한 문제점을 식별
초기 데이터 수집, 데이터 기술분석, 데이터 탐색, 데이터 품질 확인


Preparation
 ˙ 분석을 위하여 수집된 데이터에서 분석기법에 적합한 데이터를 편성하는 단계분석용 데이터 셋 선택, 데이터 정제, 분석용 데이터 셋 편성, 데이터 통합, 데이터 포맷팅

Modeling

 ˙ 과적합(Over-fitting) 문제를 확인
모델링 기법선택, 모델 테스트 계획 설계, 모델 작성, 모델 평가

Evaluation
 ˙ 모델링 결과가 프로젝트 목적에 부합하는지 평가분석 결과 평가, 모델링 과정 평가, 모델 적용성 평가

Deployment

 ˙ 모니터링과 모델의 유지보수 계획 마련
전개계획 수립, 모니터링과 유지보수 계획 수립, 프로젝트 종료보고서 작성, 프로젝트 리뷰

4. KDD와 CRISP-DM의 비교

KDDCRISP-DM
분석대상 비즈니스 이해업무 이해(Business Understanding)
데이터셋 선택(Data Selection)데이터의 이해(Data Understanding)
데이터 전처리(Preprocessing)
데이터 변환(Transformation)데이터 준비(Data Preparation)
데이터 마이닝(Data Mining)모델링(Modeling)
데이터 마이닝 결과 평가(Interpretation/Evaluation)평가(Evaluation)
데이터 마이닝 활용전개(Deployment)

5. 빅데이터 분석 방법론

나. 빅데이터 분석 방법론 - 5단계

 

 

다. 단계별 세부단계 및 실제업무

1) 분석기획(Planning)

단계내용
비즈니스 이해 및 범위 설정비즈니스 이해내부 업무 메뉴얼과 관련자료, 외부의 관련 비즈니스 자료를 조사하고 향우 프로젝트 진행을 위함 방향을 설정
프로젝트 범위설정빅데이터 분석 프로젝트의 대상인 비즈니스에 대한 이해와 프로젝트  목적에 부합하는 범위를 설정하고 프로젝트 범위 정의서인 SOW(Statement Of Work)를 작성
프로젝트 정의 및 계획수립데이터 분석 프로젝트 정의프로젝트의 목표 및 KPI, 목표수준 등을 구체화하여 목표를 명확하하기 위한 모델 운영 이미지 및 평가 기준을 설정
프로젝트 수행 계획수립프로젝트의 목적 및 배경, 기대효과, 수행방법, 일정 및 추진조직, 프로젝트 관리방안을 작성하고 WBS는 플젝트 산출물 위주로 작성되어 프로젝트 범위를 명확하게 함
프로젝트 위험계획 수립데이터 분석 위험 식별발생 가능한 위험을 식별하고, 식별된 위험은 위험의 영향도와 빈도, 발생가능성에 따라 위험의 우선순위를 결정
위험대응 계획수립위험에 대해 회피(Avoid), 전이(Transfer), 완화(Mitigate), 수용(Accept)으로 구분하여 위험관리 계획서를 작성

2) 데이터 준비(Preparing)

단계내용
필요데이터정의데이터 정의분석에 필요한 데이터를 정의
데이터 획득방안 수립법적인 문제점을 고려하여 상세한 데이터 획득 계획 수립
데이터 스토어 설계정형데이터 스토어 설계관계형 데이터베이스인 RDBMS(Relational Data Base Management System)를 사용(데이터 정의서 / 데이터 매핑 정의서)
비정형 데이터 스토어 설계하둡, NoSQL등을 이용
데이터 수집 및 정합성 점검데이터 수집 및 저장크롤링 등 데이터 수집을 위한 ETL등을 이용하여 데이터를 수집 및 저장
데이터 정합성 점검데이터의 정합성(=무결성)을 확보

3) 데이터분석(Analyzing)

단계내용
분석용 데이터 준비비즈니스 룰 확인비즈니스 이해, 도메인(=분야) 문제점 인식, 프로젝트 정의 등을 이용하여 프로젝트의 목표를 명확하게 인식
분석용 데이터 셋 준비데이터 스토어로부터 분석에 필요한 정형 · 비정형 데이터를 추출
텍스트 분석텍스트 데이터 확인 및 추출텍스트 데이터 추출
텍스트 데이터 분석추출된 텍스트 데이터를 분석 도구로 적재하여 다양한 기법을 분석하고 모델을 구축(토픽분석, 감성분석, 의견분석, 네트워크 분석)
탐색적 분석탐색적 데이터 분석다양한 관점 별로 기초 통계량(평균, 분산, 표준편차, 최대값, 최소값)을 산출하고, 데이터의 분포와 변수간의 관계
데이터 시각화탐색적 데이터 분석을 위한 도구로 활용(데이터 시각화)
모델링데이터 분할모델의 과적합과 일반화를 위하여 분석용 데이터 셋을 모델 개발을 위한 훈련용 데이터와 모델의 검증력을 테스트하기 위한 테스트용 데이터로 분할
데이터 모델링프로젝트에 맞는 통합 모델을 수행(분류, 예측, 군집)
모델 적용 및 운영 반앙모델에 대한 상세한 알고르즘 설명서 작성
모델 평가 및 검증모델 평가테스트용 데이터나 필요시 모델 검증을 위한 별도의 데이터를 활용
모델 검증모델링 검증 보고서를 작성

4) 시스템 구현(Developing)

단계내용
설계 및 구현시스템 분석 및 설계응용시스템 구축
시스템 구현설계된 모델을 구현
시스템 테스트 및 운영시스템 테스트구축된 시스템의 검증을 위하여 단위 테스트, 통합 테스트, 시스템 테스트 등을 실히
시스템 운영 계획교육을 실시하고 시스템 운영계획을 수립

5) 평가 및 전개(Deploying)

단계내용
모델 발전 계획 수립모델 발전 계획발전계획 수립
프로젝트 평가 및 보고프로젝트 성과 평가프로젝트의 정량적 성과와 정성적 성과로 나누어 성과 평가서를 작성
프로젝트 종료지식 자산화

3절 분석 과제 발굴

1. 분석과제 발굴 방법론

가. 개요

 · 분석 과제는 풀어야 할 다양한 문제를 데이터 분석 문제로 변환한 후 관계자들이 이해하고 프로젝트로 수행할 수 있는 과제 정의서 형태로 도출

 · 분석과제를 도출하기 위한 방식으로는 크게 하향식 접근 방법(Top Down Approach)과 상향식 접근 방법(Bottom up Approach)




 · 문제의 정의 자체가 어려운 경우 데이터를 기반으로 문제의 재정의 및 해결 방안을 탐색 하고 이를 지속적으로 개선하는 방식

나. 하향식 접근법(Top Down Approach)

 

 

가) 비즈니스 모델 기반 문제 탐색

 · 기업 내 · 외부 환경을 포괄하고 있는 비즈니스 모델이라는 틀(Frame)을 활용하여 비즈니스모델 캔버스의 9가지 블록을 단순화하여 업무(Operation), 제품(Product), 고객(Customer) 단위로 문제를 발굴하고, 이를 관리하는 두가지 영역인 규제와 감사(Audit&Regulation)영역과 지원 인프라(IT&Human Resource)영역에 대한 기회를 추가로 도출하는 작업을 수행










 · Key Partners : 핵심 파트너쉽
과제발굴방법내용

Operation
제품 및 서비스를 생산하기 위해서는 운영하는 내부 프로세스 및 주요자원(Resource)관련 주제 도출
- 재고량 최소화

Product
생산 및 제공하는 제품 · 서비스를 개선하기 위한 관련 주제 도출 
- 서비스 모니터링 지표도출

Customer
제품 생산 및 전달과정 프로세스 중에서 발생하는 규제 및 보안의 관점에서 관련 주제 도출
- 영업정 위치 최적화

Regualtion&Audit
제품 생산 및 전달과정 프로세스 중에서 발생하는 규제 및 보안의 관점에서 주제 도출
- 새로운 환경 규제시 예상되는 제품 추출 등

IT&Human Resource
분석을 수행하는 시스템 영역 및 이를 운영 · 관리하는 인력의 관점에서 주제 도출
- 적정 운영 인력 도출

나) 분석 기회 발굴의 범위 확장

 

 

① 거시적 관점의 메가트랜드

 ·  STEEP으로 요약 되는 Social(사회), Technological(기술), Economic(경제), Environment(환경), Political(정치) 영역으로 나눔

② 경쟁자 확대 관점

 ·  현재 수행하고 있는 사업 영역의 직접 경쟁사 및 제품 · 서비스뿐만 아니라 대체재와 신규 진입자 등으로 관점을 확대하여 위협이 될 수 있는 상황에 대한 분석 기회 발굴의 폭을 넓혀서 탐색

③ 시장 니즈 탐색 관점

 · 고객과 접촉하는 역할을 수행하는 채널(Channel) 및 고객의 구매와 의사결정에 영향을 미치는 영향자들(Influencer)에 대한 폭넓은 관점을 바탕으로 분석기회를 탐색

④ 역량의 재해석 관점

 · 현재 해당 조직 및 기업이 보유한 역량뿐만 아니라 해당 조직의 비즈니스에 영향을 끼치는 파트너 네트워크를 포함한 활용 가능한 역량을 토대로 폭넓은 분석 기회를 탐색

다) 외부참조 모델기반 문제탐색

 · 유사 · 동종 사례 벤치마킹을 통한 분석기회 발굴은 제공되는 산업별, 업무 서비스별 분석 테마 후보 그룹(Pool)을 통해 "Quick&Easy" 방식으로 필요한 분석기회가 무엇인지에 대한 아이디어를 얻고, 기업에 적용할 분석테마 후보 목록을 워크숍 형태의 브레인스토밍(Brain storming)을 통해 빠르게 도출

라) 분석 유즈 케이스(Analytics Use Case)

 · 풀어야 할 문제에 대한 상세한 설명 및 해당 문제를 해결했을 때 발생하는 효과를 명시함으로써 향후 데이터 분석 문제로의 전환 및 적합성 평가에 활용

 

2) 문제 정의(Problem Definition)단계 - 하향식 접근법 2단계

 · 앞서 수행한 문제 탐색의 단계가 무엇을(What) 어떤 목적으로(Why) 수행해야 하는지에 대한 관점이였다면, 이를 달성하기 위해서 필요한 데이터 및 기법(How)을 정의하기 위한 데이터 분석의 문제로의 변환을 수행


 · '고객 이탈의 증대'라는 비즈니스 문제는 '고객 이탈에 영향을 미치는 요인을 식별하고 이탈 가능성을 에측'하는 데이터 분석 문제로 변환될 수 있다.

3) 해결방안 탐색(Solution Search) 단계 - 하향식 접근법 3단계

 · 데이터 분석 문제를 해결

 · 동일데이터라도 어떤 시스템을 활용할 것인지에 따라 소요되는 예산 및 도구가 달라짐

분석 기법 및 시스템(How)분석역량(Who)
 확보미확보
기존 시스템기존 시스템 개선 활용교육 및 채용을 통한 역량확보
신규도입시스템 고도화전문업체 Sourcing

4) 타당성 검토(Feasibility Study) - 하향식 접근법 4단계

가) 경제적 타당성

 · 비용대비 편익 분석 관점의 접근

 · 비용 항목은 데이터, 시스템, 인력, 유지보수

 · 편익으로는 분석 결과를 적용함으로써 추정되는 실질적 비용 절감, 추가적 매출과 수익 등과 같은 경제적 가치로 산출

나) 데이터 및 기술적 타당성

 · 데이터 분석에는 데이터 존재 여부, 분석 시스템 환경 그리고 분석 역량이 필요

 · 분석 역량의 경우 실제 프로젝트 수행시 걸림돌이 되는 경우가 많기 때문에 기술적 타당성 분석시 역량 확보 방안을 사전에 수립

다. 상향식 접근법(Bottom up Approach)

1) 정의

 · 다양한 원천 데이터를 대상으로 분석을 수행하여 가치있는 모든 문제를 도출하는 일련의 과정

 

2) 기존 하향식 접근법의 한계를 극복하기 위한 분석 방법론

 · 새로운 문제의 탐색에는 한계(하향식 접근법)

 · 스탠포드 대학의 d.school(Institute of Design at Stanford)은 디자인 사고(Design Thinking)접근법으로 극복

 · 이미 우리가 알고 있는것 즉 분석가의 문제에 대한 분석접근법이 한계를 극복하기 위해 현장 관찰과 감정이입, 즉 대상의 관점으로부터의 전환을 수행

 

디자인 사고(Design Thinking)의 프로세스

 

3) 비지도 학습과 지도 학습

가) 비지도 학습(Unsupervised Learning)

 · 일반적으로 상향식 접근방식의 데이터 분석은 비지도 학습(Unsupervised Learning) 방법에 의해 수행

 · 비지도 학습은 데이터 분석의 목적이 명확히 정의된 형태의 특정 필드 값을 구하는 것이 아니라 데이터 자체의 결합, 연관성, 유사성 등을 중심으로 데이터의 상태를 표현

나) 지도학습(Supervised Learning)

 · 명확한 목적 하에 데이터 분석을 실시하는 것은 지도학습(Supervised Learning)이라고 하며, 분류, 예측, 최적화를 통해 사용자의 주도하에 분석을 실시하고 지식을 도출하는 것이 목적


 · 군집분석 = 비지도학습

4) 시행착오를 통한 문제 해결

나) 빅데이터분석 환경에서 프로티이핑의 필요성

① 문제에 대한 인식 수준

   · 문제의 정의가 불명확하거나 이전에 접해보지 못한 새로운 문제일 경우 사용자의 및 이해관계자는 프로토타입을 이용하여 문제를 이해하고, 이를 바탕으로 구체화 하는데 도움을 받을 수 있음
② 필요 데이터 존재 여부의 불확실성

   · 불가능한 프로젝트를 수행하는 리스크를 사전에 방지
③ 데이터 사용 목적의 가변성

   · 데이터 사용목적과 범위를 확대

라. 분석과제 정의

 · 다양한 방식을 통해서 도출된 분석 과제를 분석과제 정의서 양식을 활용하여 보다 상세하게 정의

 · 분석과제 정의서를 통해 분석별로 필요한 소스 데이터, 분석방법, 데이터 입수 및 분석의 난이도, 분석 수행주기, 분석결과에 대한 검증 오너쉽, 상세 분석 과정 등을 정의

 · 분석 데이터 소스는 내 · 외부의 비구조적인 데이터와 소셜 미디어 및 오픈 데이터까지 범위를 확장하여 고려하고 분석방법 또한 상세하게 정의

4절 분석 프로젝트 관리 방안

1. 분석과제 관리를 위한 5가지 주요 영역

 

 

영역내용
Data Size · 분석하고자 하는 데이터의 양을 고려한 관리 방안이 수립이 필요
Data Complexity · 정형데이터 및 비정형데이터와 같은 초기 데이터의 확보와 통합뿐만 아니라 해당 데이터에 잘 적용될 수 있는 분석모델의 선정 등에 대한 사전적 고려가 필요
Speed
 · 일 단위, 주단위 실적의 경우에는 배치(Batch)형태로 작업되어도 무방하지만 실시간으로 사기(Fraud)를 탐지하거나 고객에게 개인화된 상품 · 서비스를 추천하는 경우에는 분석 모델의 적용 및 계산이 실시간으로 수행
Analytic Complexity · 분석 모델의 정확도와 복잡도는 트레이드오프(Trade off)관계가 존재한다. 이에 대한 기준점을 사전에 정의
Accuracy&Precision

 · Accuracy와 Precision은 트레이드오프가 되는 경우가 많기 떄문에 모델의 해석 및 적용 시 사전에 고려

2. 분석프로젝트의 특성

가. 개요

 · 데이터 영역과 비즈니스 영역에 대한 이해뿐만 아니라 지속적인 반복(Agile 예측X → 지속적으로 프로토타입을 만들고 테스트)이 요구되는 분석 프로세스의 특성을 이해한 프로젝트 관리방안을 수립하는 것이 중요

 · 분석 과제정의서를 기반으로 프로젝트르 시작하되 지속적인 개선 및 변경을 염두에 두고 기간 내에 가능한 최선의 결과를 도출할 수 있도록 프로젝트 구성원들과 협업하는 것이 분석 프로젝트 특징

3. 분석 프로젝트의 관리방안

주제 그룹개념 및 관련 프로세스
범위(Scope)분석의 최종 결과물이 분석 보고서 형태인지 시스템인지에 따라서 투입되는 자원 및 범위 또한 크게 변경되므로 사전에 충분한 고려 필요
시간(Time)Time Boxing 기법으로 일정관리를 진행
원가(Cost)사전에 상당한 조사 필요
품질(Quality)품질통제(Quality Control)와 품질보증(Quality Assurance)으로 나누어 수행
통합(Integration)프로젝트 관리 프로세스들이 통합적으로 운영될 수 있도록 관리
조달(Procurement)프로젝트 목적에 맞는 외부 소싱을 적절하게 운영필요
자원(Resource)프로젝트 수행 전 전문가 확보에 대한 검토 필요
리스크(Risk)관련 위험을 식별하고 대응방안을 사전에 수립
의사소통다양한 의사소통체계 마련이 필요
이해관계자(Stakeholder)이해관계자의 식별과 관리 필요

2장 분석 마스터 플랜

1절 마스터 플랜 수립 프레임 워크

1. 분석마스터 플랜 수립 프레임 워크

가. 마스터 플랜 수립 개요

 · 과제 도출, 우선순위, 로드맵 만듬

 · 분석 과제를 대상으로 전략적 중요도, 비즈니스 성과 및 ROI, 분석과제의 실행 용이성 등 다양한 기준을 고려해 적용 우선순위를 설정

 · 업무내재화 적용 수준, 분석데이터 적용 수준, 기술적용 수준 등 분석 적용 범위 및 방식에 대해서 종합적으로 고려하여 데이터 분석 구현을 위한 로드맵을 수립

우선순위 고려요소 적용범위 / 방식 고려요소
① 전략적 중요도적용 우선 순위 설정 업무 내재화 적용 수준Analytics 구현 로드맵 수립
② 비즈니스 성과/ROI 분석 데이터 적용 수준
③ 실행 용이성 기술 적용 수준
 · ISP(Information Strategy Planning) : 중장기 마스터 플랜을 수립하는 절차

나. 수행과제 도출 및 우선순위 평가

1) 우선순위 평가 방법 및 절차

 · 우선순위 평가의 경우 정의된 데이터와 과제에 대한 실생 순서를 정하는 것

 

 

2) 일반적인 IT 프로젝트의 우선순위 평가 예시

 

 

3) ROI 관점에서 빅데이터의 핵심 특징

 · (비정형/정형) 데이터 결합 → Mesh up

 

 

가) 투자비용(Investment)요소

① 크기(Volume)

② 다양성(Variety)

③ 속도(Velocity)

나) 비즈니스 효과(Return) 요소

④ 가치(Value)

 

4) 데이터 분석과제 추진시 고려해야 하는 우선순위 평가 기준

가) 시급성

 · 시급성의 판단 기준은 전략적 중요도가 핵심이며, 이는 현재의 관점에서 전략적 가치를 둘 것인지, 미래의 중장기적 관점에 전략적인 가치를 둘 것인지를 고려하고, 분석과제의 목표가치(KPI)를 함께 고려하여 시급성 여부를 판단

나) 난이도

 · 현 시점에서 과제를 추진하는 것이 적용 비용 측면과 범위 측면에서 바로 적용하기 쉬운 것인지 또는 어려운 것인지에 대한 판단기준으로서, 데이터 분석의 적합성 여부를 확인

 

5) 포트폴리오 사분면 분석을 통한 과제 우선순위 선정

 · 시급성 : III → IV  II

 · 난이도 : III → I → II

 

 

 

다. 이행계획 수립

1) 로드맵 수립

  · 단계별로 추진하고자 하는 목표를 정의

  · 추진과제별 선 · 후행 관계를 고려하여 단계별 추진 내용을 정렬

2) 세부 이행계획 수립

 · 데이터 분석체계는 고전적인 폭포수(Water-Fall) 방식도 있으나 반복적인 정련 과정을 통하여 프로젝트의 완성도를 높이는 방식을 주로 사용

 

2절 분석 거버넌스 체계 수립

1. 거버넌스 체계

가. 개요 

 · 거버넌스는 국가 경영, 공용 경영이라고 해석되며, 행정마도 포함하는 용어

 · 기업에서는 경영목표를 충족할 수 있는 계획을 개발하고 통제하는 프로세스를 의미

 · 분석 거버넌스는 기업에서 데이터가 어떻게 관리되고, 유지되고, 규제되는지에 대한 내부적인 관리 방식이나 프로세스

나. 구성요소

 

 

2. 데이터 분석 수준 진단

가. 개요

 

 

2) 분석 준비도

가) 목표 : 기업의 데이터 분석 도입의 수준을 파악하기 위한 진단 방법

분석 업무 파악인력 및 조직분석기법




 · 분석업무 정기적개선




 · 경영진의 분석 업무 이해 능력




 · 분석기법 정기적 개선
분석 데이터분석 문화IT 인프라





 · 기준 데이터 관리(MDM)




 · 데이터 공유 및 협업 문화





 · 비쥬얼 분석 환경

3) 분석 성숙도 모델

가) 조직 성숙도 평가 도구

 · CMMI(Capability Maturity Model Integration) 모델 : 시스템 개발 업무 능력과 조직의 성숙도를 파악하기 위해 사용하는 모델

단계도입단계활용단계확산단계최적화단계
설명분석을 시작하여 환경과 시스템을 구축분석 결과를 실제 업무에 적용전사 차원에서 분석을 관리하고 공유분석을 진화시켜서 혁신 및 성과 향상에 기여
비즈니스 부문 · 실적분석 및 통계
 · 시뮬레이션

 · 분석 규칙 관리


 · 실시간 분석
조직 역량 부문 · 담당자 역량에 의존 · 전문 담당부서에서 수행 · 전사 모든 부서 수행 · 데이터 사이언스 그룹 
IT 부문


 · OLAP

 · 통계분석 환경



 · 분석 전용 서버


 · 빅데이터 분석

 

4) 분석 수준 진단 결과

가) 분석 관점에서의 사분면 분석

 

 

3. 분석지원 인프라 방안 수립

가. 개요

 · 분석과제 단위별로 별도의 분석시스템을 구축하는 경우, 관리의 복잡도 및 비용의 증대라는 부작용이 나타나게 된다. 따라서 분석마스터 플랜을 기획하는 단계에서부터 장기적이고 안정적으로 활용할 수 있는 확장성을 고려한 플랫폼 구조를 도입하는 것이 적절하다.

 

4. 데이터 거버넌스 체계 수립

 · 빅데이터는 데이터의 크기(Volume)로 의미를 절대성을 갖는 것은 아니다. 그러나 실시간으로 쏟아지는 엄청난 양의 데이터와 정형화된 데이터를 넘어 비정형, 반정형 데이터는 조직이나 프로젝트 단위의 데이터 관리체계로는 그 해답을 찾을 수 없고 전사 차원의 체계적인 데이터 가버넌스(Data Governance)의 필요성을 부각시키고 있다.

 · 마스터 데이터(Master Data), 메타 데이터(Meta Data), 데이터 사전(Data Dictionary)은 데이터 거버넌스의 중요한 관리 대상

마스터 데이터잘 변하지 않고 자료를 처리 운영하는데 가장 기본이 되는 자료 집합
메타 데이터데이터를  설명하는 데이터
데이터 사전모든 데이터와 관련된 정보를 관리

나. 데이터 거버넌스 구성요소

1) 개요

 · 원칙(Principle), 조직(Organization), 프로세스(Process)

2) 구성 3요소

가) 원칙(Principle)

 · 데이터를 유지 · 관리하기 위한 지침과 가이드

나) 조직(Organization)

 · 데이터를 관리할 조직의 역할과 책임

다) 프로세스(Process)

 · 데이터 관리를 위한 활동과 체계

 

다. 데이터 거버넌스 체계

 

 

1) 데이터 표준화

 · 데이터 표준화는 데이터 표준 용어 설정, 명명 규칙(Name Rule) 수립, 메타 데이터(Meta Data)구축, 데이터 사전(Data Dictionary)구축 등의 업무로 구성

 · 데이터 표준용어는 표준 단어사전, 표준 도메인사전, 표준 코드 등으로 구성되며 사전간 상호 검증이 가능

 · 명명 규칙은 필요시 언어별(한글, 영어 등)로 작성되어 매핑 상태를 유지

 

2) 데이터 관리 체계

 · 데이터 정합성 및 활용의 효율성을 위하여 표준 데이터를 포함한 메타 데이터(Meta Data)와 데이터 사전(Data Dictionary)의 관리 원칙을 수립

 · 수립된 원칙에 근거하여 항목별 상세한 프로세스 만들고 관리와 운영을 위한 담당자 및 조직별 역할과 책임을 상세하게 준비

 · 빅데이터의 경우 데이터양의 급증으로 데이터의 생명 주기 관리방안(Data Life Cycle Management)을 수립하지 않으면 데이터 가용성 및 관리비용 증대 문제에 직면할 수 있음

 

3) 데이터 저장소 관리(Repository)

 · 메타데이터 및 표준 데이터를 관리하기 위한 전사 차원의 저장소를 구성

 · 저장소는 데이터 관리 체계 지원을 위한 워크플로우(Workflow) 및 관리용 으용 소프트웨어(Application)를 지원하고 관리 대상 시스템과의 인터페이스를 통한 통제가 이루어져야 함

 · 데이터 구조 변경에 따른 사전 영향도 평가도 수행되어야 효율적인 활용이 가능

 

4) 표준화 활동

 · 데이터 거버넌스 체계를 구축한 후 표준 준수 여부를 주기적으로 점검하고 모니터링을 실시

 · 거버넌스의 조직 내 안정적 장착을 위한 계속적인 변화 관리 및 주기적인 교육을 진행

 · 지속적인 데이터 표준화 개선 활동을 통하여 실용성을 높여야 함

 

5. 데이터 조직 및 인력방안 수립

가. 현황

 · 빅데이터 등장에 따라 기업의 비즈니스도 많은 변화를 겪고 있는데, 이러한 비즈니스 변화를 인식하고 기업의 차별화된 경쟁력을 확보하는 수단으로서 데이터 과제 발굴, 기술 검토 및 전사 업무 적용계획 수립 등 데이터를 효과적으로 분석 · 활용하기 위해 기획, 운영 및 관리를 전담할 수 있는 전문 분석조직의 필요성이 제기

 

다. 조직 인력구성시 고려사항

2) 분석을 위한 3가지 구조

 

※ DSCoE : Data Science Center of Excellence

 

3) 분석조직의 인력구성

 

 

6. 분석 과제 관리 프로세스 수립

1) 과제 발굴

 · 개별 조직이나 개인이 도출한 분석 아이디어를 발굴하고 이를 과제화 하여 분석 과제 풀(Pool)로 관리하면서 분석 프로젝트를 선정하는 작업을 수행

2) 과제 수행

 · 분석을 수행할 팀을 구성하고 분석 과제 실행 시 지속적인 모니터링과 과제결과를 공유하고 개선하는 절차를 수행

 

7. 분석 교육 및 변화관리

가. 개요

 · 기업에 맞는 적합한 분석 업무를 도출하고, 가치를 높여줄 수 있도록 분석 조직 및 인력에 대한 지속적인 교육과 훈련을 실시

 · 경영층이 사실 기반(Fact-Based) 의사결정을 할 수 있는 문화를 정착시키는 등 지속적인 변화관리를 계획하고 수행

'ADSP' 카테고리의 다른 글

PART 03 데이터 분석 - 3  (0) 2020.03.14
PART 03 데이터 분석 - 2  (0) 2020.03.06
PART 03 데이터 분석 - 1  (0) 2020.02.24
PART 01. 데이터 이해  (0) 2020.02.22
[ADSP] R Studio설치  (0) 2020.01.21