본문 바로가기
News

인공지능의 역사

by jaekk 2018. 8. 16.


정리

1936년 영국 수학자 튜링: a-머신이라는 연구 결과를 내놓음

가상 기계 스스로가 저장 공간의 기호를 읽어 처리한 후 다른 상태로 전이하여 연산을 처리하는 이론


※ 튜링의 지도교수는 폰노이만 

(폰노이만: 현대 컴퓨터의 기본 아키텍쳐를 만든 사람으로 폰노이만 구조의 현대 컴퓨터의 기본 구조를 제시)


차차 '마음은 정보처리 과정의 산물'이라는 사고 -> 인지과학(Congnitive Science) 그리고 인공지능(Artificial Intelligence, AI)의 시작이 됨

인공지능: 사람의 '지능'을 기계로 구현한다. -> 규칙기반의 인공지능발달 

규칙 기반의 AI

실세계의 사물과 사상을 어떻게 기호화 할 것인가에 대한 고민 -> 온톨로지 같은 지식 표현 체계로 발전

기호들과 규칙을 활용해 어떻게 지능적 추론을 할 수 있을 것인가에 대한 고민 -> 1차 논리학과 같은 추론 기법을 이용


규칙성 AI 

1950~ 1980년(전성기)

인간이 표현할 수 있는 형태의 표현 방식 + 컴퓨터 프로그래밍의 유사성

1980년대(쇠락)

상용화정도 성능 구사 불가-> 범용설 부족

      실세계 형상의 기호화에 대한 의문 

-> 연결주의라는 사고의 흐름으로 발전



연결주의 인공지능

연결주의

두뇌를 이루는 신경들 사이의 연결에서 출발한다는 가정 

-> 낮은 수준의 모델링을 한 후 외부 자극을 통해 인공두뇌의 구조와 가중치 값을 변형시키는 방식으로 학습


※ 

ex) 고양이

기호주의: 기호사전 중 하나로 매핑, [0,0,0,0,1,0,0,0,0,0] 로 표현

연결주의: 오늘 아침에 본 고양이 + 페르시안 고양이 + 내가 키우던 고양이=> [34.2,93.3,46.1]로 표현


연결주의에 기반한 신경망을 모델링 후 이를 통해 인공지능을 구현하는 시도=> 신경망 기반 AI


신경망 기반 AI

1980년대부터 신경망 기반의 연구와 상용화가 꾸준히 시도되고 일부 영역에서는 성공을 거뒀지만, 1990년대 후반 사양길을 걸음

-> 계산 복잡 & 데이터 부족 


※ 통계 기반의 인공지능

인간의 지능과 두뇌구조 외 풀려는 '문제자체'를 통계적으로 풀어내는가에 관심을 가짐

1. 실제 사물을 표현하는 자질의 설계

2. 통계적 모델에 기반해 문제를 푼 후 정답과 비교해보는 평가 과정

3. 정답과의 차이를 반영해 통계 모델을 계속 갱신해 나가는 최적화 과정의 세가지로 구성

이 세가지 구성 요소의 조합 방법에 따라 성능이 결정

2000년대 초반부터 지금까지 음성인식, 영상처리, 자연어 처리 등 통계기반의 인공지능 분야로 풀어옴


그러나, 통계 기반의 인공지능의 한계점

1. 설계의 능숙도의 따라 전체적 성능이 좌우

2. 최적화 방식으로 문제를 해결하기 때문에 풀어내는 과정에서 생기는 결과물을 다른분야에 활용하기 어려움



신경망 기반 AI의 부활 - 딥러닝

1. 데이터만 충분하면 스스로 발견이 가능함

2. 사물을 분산표상 방식으로 학습해 표현함으로써 사물의 유사도정보를 표현 체계 안에 포함 시킬 수 있다.

3. 풀어내는 과정에서 생기는 결과물을 다른분야에서 사용 가능

4. 주변에서 쉽게 구하는 데이터 활용 가능

주변의 데이터로 선학습을 수행하 후 교사데이터를 활용해 최종 성능 올리기가 가능



딥러닝 기술(기술, 데이터, 아이디어, 창의력)

기술 자체가 오픈 소스로 배포되고 있고

데이터를 쉽게 모을 수 있기 때문에

아이디어와 창의력만 있다면 언제든지 지능을 만들어 볼 수 있는 시대


 


댓글