[Daily Contents] 인공지능 Tech Talk


AI란?

감지하고 있는 것에 반응하여, 환경을 인지하고, 생각하며, 배우고, 행동을 취할 수 있는 컴퓨터 시스템

  • Sense : their environment
  • Think
  • Learn
  • Take Action

Automated intelligence : 수동적으로 진행한 업무 또는 인지 등의 자동화
Assisted intelligence : 인간이 더 빠르고 더 정확하게 업무를 수행하는 것을 돕는 역할
Augmented intelligence : 더 나은 의사결정에 도움을 주는 역할
Autonomous intelligence : 인간의 개입이 없는 의사 결정 프로세스의 자동화

학습 자료 : Big Data
학습 방법 : Machine Learning Technique
자동화/관리 : Automation & Management

어린 아이에게 한글을 가르치는 과정

학습 자료 : 교재

  • 정제되지 않은 데이터 » 데이터 정제 » 학습 데이터
  • 인공지능 관점
    • 무의미한 데이터의 제거(Noise 제거) ex) 텍스트 내의 특수 기호, 광고 글, 무의미한 링크 등
    • 학습하기 위한 형태로의 변경 ex) 문서 내에서 문장 단위 분리, 데이터 포맷 일원화 등
    • 학습을 위한 Labeling 작업 ex) 고양이 사진, 개 사진, Sentiment문장, 그렇지 않은 문장 등

학습 방법 : 교육법

  • 교재에 맞는 교육법, 교육법에 맞는 교재
  • 인공지능 관점
    • 영상 인식 & 분류 방법 : Convolution Neural Network, Capsule Network
    • Sentence 분류 방법 : Recurrent Neural Network, Convolution Neural Network with Word2Vec
    • 시계열 예측 방법 : Long Short-Term Neural Network

자동화/관리 : 스스로 공부하는 습관

  • 인공지능 관점
    • 학습 데이터 수동/자동 생성 : 데이터 전처리&정제
    • 학습 스케쥴링에 의한 자동 학습 : 데이터 추가 학습
    • 학습 모델 LifeCycle 관리 : 모델 배포 및 업그레이드

사람처럼 행동하도록 만들어진 장치 또는 소프트웨어

인공지능에 대한 기대

  • 시간 효율성 : 사람보다 훨씬 빠르게 분석해서 결과를 도출, 대량의 데이터를 핸들링
  • 비용 효율성 : 여러 사람이 해야 할 일을 기계가 처리, 24시간 365일 업무를 수행
  • 객관성 유지 : 항상 같은 기준으로 분석/판단을 수행
  • 진화 : 인간이 미처 발견하지 못한 데이터의 특성 인지

과거와 현재

  • 1956
    • 인공지능 초기 : 엘런 튜링(튜링 테스트와 튜링머신 고안)
  • 1960~1980
    • 1차 인공지능 붐 : 규칙 기반 자동 판정 프로그램, 추론엔진, 전문가 시스템의 등장
  • 1980~2000
    • 2차 인공지능 붐 : 연산속도의 비약적 발전, 무어의 법칙의 현실화, 퍼셉트론의 다중화, 오차역전파법 개발(신경망 연구의 발전)
  • 2000~2010
    • 기술의 발전기 : 통계기반 머신러닝 분산처리 기술, 딥러닝 시대의 도래(AutoEncoder, Deep Nueral Network)
  • 2010~
    • 3차 인공지능 붐 : 딥러닝 기반 이미지 인식 성능 향상(AlexNet, Convolutional Neural Network)

AI에 대한 Question

가르치는 관점

  • 아이가 학습하는 과정을 이해 : 사고하고 배우는 과정의 원래를 이해, 아이가 학습한 결과를 설명하는 원인 요소를 파악
  • 적은 양의 교재 & 짧은 학습 시간
  • 학습 효율을 높일 수 있는 효과적인 방법 : 성능 개선
  • 개발한 학습법을 다른 영역을 가르칠 때 재활용 또는 효과적으로 적용할 수 있는 영역
  • 선생님의 개입을 최소화하는 학습
  • 학습법을 개발하기 위한 쉬운 툴
  • 스스로 학습하여 발전(진화)할 수 있는 방법

인공지능 관점

  • 학습하는 원리와 과정 이해
    • Deep Learning은 학습 과정을 알 수 없음
    • Deep Learning Model의 성능이 좋은 이유와 원인을 증명할 수 없음
  • 적은 학습 데이터, 짧은 학습 시간
    • 많은 양의 학습 데이터를 생성하는 시간과 인력이 필요
    • 많은 양의 학습을 진행하려면 많은 Computing Power & Resource가 필요
  • 효과적인 학습 모델(학습 효율)
    • Deep Learning의 성능을 개선할 새로운 개념 및 신경망 이론이 필요
  • 학습법의 재활용
    • 한 영역에서 개발한 인공지능 모델을 다른 영역에 적용하여 개발 효율을 높임
    • 효과적으로 적용할 수 있는 분야 또는 영역
  • 전문가의 개입 최소화
    • 인간의 개입을 최소화하는 인공지능 모델 필요
  • 학습법을 개발하기 위한 쉬운 틀
    • 인공지능 모델을 개발하기 위한 쉽고 편리한 소프트웨어 개발 틀 및 개념
  • 스스로 학습
    • AI Tool의 민주화
    • AI 모델 개발 과정을 Programming 지식 없이도 수행할 수 있도록 하는 Platform이 필요
    • 학습 자동화 툴

CNN의 기본 구성

Convolution Filer : 다양한 특징을 생성
Pooling : 특징 중 강한 특징들을 살리면서 차원을 축소
Relu : Activation Function - 불필요한 Feature를 제거하는 역할
Fully Connected : Classification 결정 이전에 Feature들을 재조합하는 연산
Softmax : 확률 값을 내어 보내어 다양한 값을 분류하기 위함

BERT(AI 관련기술, 구글의 베이스 모델)

BERT의 설계 의도

Pre-training

  • MLM(Masked Language Model)
    • MaskedToken에 대한 정답을 찾는 Task
  • NSP(Next Sentence Classfication)
    • 두 개의 문장이 연속된 문장인지 판별하는 Taskv

Fine-Tuning

  • Sentence Pair Classification Tasks
  • Single Sentence Classification Tasks
  • Question Answering Tasks
  • Single Sentence Tagging Tasks

BERT 모델 Architecture

  • Multi-layer bidirectional Transformer encoder
  • BERTbase
  • BERTlarge

Input/Output Representation

Pre-training

  • CLS : sequence의 시작을 나타내는 첫번째 토큰
  • SEP : 두 sentence를 구별하는 토큰
  • C : CLS 토큰에 해당하는 마지막 hidden vector
  • $T_N$ : N번째 토큰에 해당하는 마지막 hidden vector
  • Token embedding : WordPiece embeddings(3만 토큰 사전)
  • Segment embedding : 문장의 앞뒤를 구분
  • Position embedding : 토큰의 위치 정보를 포함

AI 기반 외환거래 자동 점검 솔루션 구축 사례에서의 개체명 인식 엔진의 활용

개체명 인식 모델의 학습 / 적용 / 검증을 위한 절차

  • 수행 절차

    • 로그 데이터 전처리 » 데이터 Annotation » 개체명 인식 모델 학습 » 정보 추출
  • 단계별 수행 업무
    • 개체명 인식 수행을 위한 로그 데이터 전처리 수행
    • 인공지능 모델 학습을 위해 개체명에 해당하는 단어의 Category와 위치 정보 생성
    • Category와 위치 정보를 활용한 로그 데이터를 이용하여 개체명 인식 모델 학습 수행
    • 문자열 로그 데이터의 개체명 인식 결과 추출
  • 성능 측정
    • Category 정확도 : 추출한 개체명의 카테고리 정보가 원본 데이터의 카테고리 정보와 일치하는 항목 수 확인
    • 위치 추출 정확도 : 추출한 개체명의 위치 정보가 원본 데이터의 위치 정보와 일치하는 항목 수 확인

개체명 인식 모델 성능 검증 결과

  • 개체명 인식 모델 성능 : F1 score 93.15
  • 개체명 인식 모델 카테고리 별 성능 : 평균 성능 93.07%

댓글남기기