과학

디입-러닝은 만능인가?

알파고가 바둑으로 사람 머리통을 깬 이후에 딥러닝 기반 기계학습이 큰 주목을 받게 되었어.

 

그러면서 여기저기서 딥러닝을 활용한 연구와 실 산업의 적용 결과들이 속속 나오기 시작했는데

 

그렇다면 과연, 딥러닝은 데이터만 있으면 가능한 만능 방법론일까?

 

저자는 여러가지 한계점과 그 예시를 들며 딥러닝이 완벽한 방법이 아니라고 주장을 하고 있는데 (Marcus, Gary. "Deep learning: A critical appraisal." arXiv preprint arXiv:1801.00631 (2018).) 이에대해 한번 교양수준으로 간단히 살펴보자.

 

1. 딥러닝은 여전히 data가 부족해

사람은 몇번의 시도를 하면 이에 대한 인과관계 혹은 상관관계를 추론해낼수 있어. 예를들어 내가 지우개를 자리에서 떨어뜨려보고, 연필을 떨어뜨리는걸 보면, 자도 똑같이 떨어질거라 학습을 하겠지. 하지만 인공지능은 이런 각각에 대한 인과관계를 데이터로 넣어주어야만 추론을 잘 할수 있어.

그렇기에 인공지능으로 이를 학습시켜서 옳은 결과를 얻기 위해서는 지우개, 연필, 자에 대한 모든 데이터가 필요하기에 기본적으로는 엄청난 양의 데이터를 필요로 해 (이를 해결하기 위한 방법들 (semantic relation해석이 가능한)도 개발되고 있긴 해).

 

2. 딥러닝이 학습한 결과를 유사한 사례에 적용하기가 힘들어

위에서 말한것의 연장선에서 발생하는 문제인데, 딥러닝은 물체가 떨어지는것에 대한 본질을 학습한게 아니라 각 객체를 입력으로 했을때 특정 출력을 내도록 학습이 되었기 때문에 지우개에 대한 학습으로 자를 대체할수가 없어.

대표적인 예시로 Atari 벽돌깨기 게임에서 보여준 강화학습의 한계연구가 있어. (Kansky, Ken, et al. "Schema networks: Zero-shot transfer with a generative causal model of intuitive physics." International Conference on Machine Learning. PMLR, 2017.)

 

그림1.png

 

위 사진을 보면 벽돌께기를 오리지널 버전에 대해서 학습을 잘 시키고 학습이 다된 agent를 몇가지 조건이 다른 경우에 놓고 잘 하나 살펴본 연구야.

b조건은 안깨지는 판을 한번 놔봤고, d는 막대의 위치를 올려보고 하는 것과 같이 간단한 변형을 가했어.

이 경우 사람에겐 이정도의 변화는 매우 작은 purturbation이지만 deep learning은 학습을 다시해야만 할 정도로 받아들였어.

그렇기에 내가 시뮬레이션 환경에서 테스트를 한 agent를 실 산업에 바로 적용하는건 매우 어려운 문제인거지.

 

3. 딥러닝은 계산과정이 불투명해

딥러닝은 결국 신경망의 가중치를 원하는 점으로 수렴하도록 계속 조금씩 수치를 바꿔가며 최적화하는 절차야. 다른 인공지능인 SVM 같은 경우 '왜 이걸 Decision boundary로 잡았니?' 라고 물어보면 수학적으로 이게 가장 지지벡터를 가지기 때문이에요 라고 모두가 봐도 납득이 가능한 대답을 해줄 수 있는데, 인공신경망의 경우 그냥 해보니까 이게 젤 적합한 튜닝결과인것 같아요 라고 밖에 대답을 못해.

 

그럼 이게 어떤 문제로써 작용하느냐? 바로 규제가 불가능해진다는 문제를 가져.

 

그림3.png

 

실제 산업에서 사용되려면 안전성등을 평가할때, 왜 이게 안전하고 최적인지 설명이 되어야만 규제가 가능한데, 인공지능은 당위성을 확보할 수 없으니 규제를 수행하기가 어려워. 그리고 100번 대답을 잘하다가 한번 대답을 잘못할 가능성은 얼마야? 라고 물어봤을때 이에 대해서도 대답을 못해.

 

4. 딥러닝은 인과관계 상관관계 구분을 할줄 몰라

딥러닝은 답은 내놓을줄 아는데, 이게 인과관계에 의한 영향인지 상관관계에 의한 영향인지는 사람이 어차피 다시 해석해줘야해

이 절차를 인공지능에게만 맡기면 이런 결과가 나올거라고 우스갯소리로 이야기를 해.

 

한 연구자 (AI)가 아이스크림 판매량의 연중 증감 추이를 확인했다. 그리고 연중 익사 사망자의 증감 추이를 함께 놓고 두 변인 간의 상관분석을 시행해 보았다. 

결과는 놀라웠다. 무서울 정도로 명백한 상관관계가 나타나고 있었다. 아이스크림 판매량이 급증하는 동안, 익사 사망자 수도 함께 증가하고 있었으며, 판매량이 감소하는 동안 익사 사망자 수도 감소하고 있었던 것이었다.

연구자는 몸서리를 치면서 다음과 같은 결론을 내렸다. "익사 사망자의 증감은 아이스크림이 그 원인이다."
 

5. 데이터 위변조에 굉장히 취약해

딥러닝은 사람이 인지하지 못하는 수준에서 발생한 데이터에의 오류만으로도 결과를 잘못도출할 수 있어.

아래가 이에 대한 예시인데

 

그림4.png

 

Stop 사인에 빵구 좀 뚫어놓은 데이터가 들어왔다고 이걸 speed limit 45라고 말을 해버리는 미친 결과를 내놓을수도 있어.

이게 만약 자율운전차에 사용이 되었다면 섰어야 할 위치에서 직진해서 앞에 사람을 박았을거야.

Adversarial attack이라고 하는분야가 그래서 많이 연구되고 있어.

 

이런 한계점들 때문에 이를 보완하기 위한 연구가 많이 수행되고 있지. 하지만 현재까지는 deep learning 기반 AI는 만능이 아니야.

 

20개의 댓글

2022.04.21

내가 보기에 딥러닝은 그냥 복잡고도화된 반복 계산 밖에 안되는 거 가틈... 인공지능이 아닌 것 같어. 물론 신경망이랍시고 생물 신경하고 비교해 묘사는 하지만. 그냥 연립방정식에서 해 구하듯이 literation 같기도 함. 내가 잘 몰라서 그러는 거겠지만..

3
2022.04.21

딥러닝은 아직 y=f(X)에서 y와 x를 가지고 f를 추정하는 것, 그 이상도 그 이하도 아님..

0
2022.04.21
@단다다다단

ㅋㅋㅋㅋ에이 그건 또 너무 과소평가구

0
2022.04.21
@ptrtype01

그 이상의 것이 있음? 단순화해서 그렇지만 저 f를 추정하는 것 자체도 대단한 작업 맞는데

0
2022.04.21
@단다다다단

너가 말한 예시는 지도학습인 경우들만 포함하자나ㅋㅋ

0
2022.04.21
@ptrtype01

그...딥러닝 중에 지도학습 아닌게 있나...? 생성모델도 결국 self-supervised 아님? 딥러닝을 아노테이션 없이 할 수 있음? 그럼 뭘 기준으로 네트워크를 학습하고 최적화할 로스는 어디서 나옴? Generative 같은건 그게 다만 트레이닝셋 자체에서 나올 뿐 그를 기준으로 지도학습하는건 똑같은데. 현 딥러닝은 걍 복잡한 맵핑을 만드는거 맞음. 뭐 머신러닝으로 확장하면 걍 맵핑 아님? 하면 틀린 말이지만 딥러닝은 맵핑을 만드는거 맞음

0
2022.04.21
@말안통함

dqn같은것들도 value function이나 reward function들을 self로 만든 y라 봐야한단 말인가?

그렇게 해석할수 있는지 잘 몰라서 물어봐

0
2022.04.21
@ptrtype01

Reinforcement의 경우 클래식한 지도학습과 다르긴 하지만 난 결국은 개념 자체는 지도학습이라고 보긴 하는데...리워드가 늘어나는 쪽으로 상황과 액션을 학습하는거니까. 리워드를 정의하는건 결국 사람이 하는거고 특정 목표를 향해 나아가잖아

0
2022.04.21
@말안통함

말대로면 loss function을 정의하여 돌아가는 모든 방법론은 지도학습이다가 되는데 음..

0
2022.04.21
@ptrtype01

글킨하넼ㅋㅋ 결국 메트릭을 정하고 최적화하는게 기본인 머신러닝에서...정의를 다르게 해야하는건가... 사실 self-supervised는 unsupervised로 분류를 하기도 하고...

하지만 unsupervised는 모델을 만들지 않고 입력에 따라 결과가 상이하지만 nn은 뭐가 됐든 모델을 만들어서 입력이 바뀌어도 학습된 맵핑에 따라 출력이 결정되니까. 아무대로 완전한 unsupervised로 보긴 힘들지 않을까...

0
2022.04.21
@말안통함

강화학습도 궁극적인 obj 아래 하위 태스크들이 있다하면 걔네 내부에서는 일어나는 일은 또 지도학습인것 같고...

전체 알고리즘을 깨서 가장 아래로 가면 지도학습들이라 너 말도 일리가 있는데

 

그렇게 분류하면 naive bayes 부터 강화학습까지 모두가 지도학습이라 그건또 아닌것 같고 ㅋㅋㅋ

0
2022.04.21
@ptrtype01

Naive는 주어진 데이터를 iid로 가정하고 걍 확률 분포를 구하는거니...뭐 학습이라고 해야하나ㅎㅎ 걍 주어져 있는걸 강한 assumption을 기초로 풀어내는 확률 문제나 hypotheszing에 가깝..지 않을까..

 

굳이 분류하면 강화학습은 클래식한 지도학습과는 다르지..하지만 그 개념으로 보면 그렇다는거지ㅎㅎ

0
2022.04.21
@ptrtype01

뭐 근데 결국은 고정된 모델을 만드는 이상 '맵핑' 에서 벗어날 수 없다는거지. 이게 뭐 이상한 말도 아니고 인간도 경험과 학습에 의한 맵핑으로 움직이는데 뭐..

0
2022.04.21
@ptrtype01

NN의 경우 퍼셉트론 자체가 회귀 기반이니까 지도학습 형태에서 벗어날 순 없지

0
@단다다다단

일단 Q러닝처럼 전통적인 방법으론 함수 자체를 규정하지 못하는 경우도 있고

생성모델들의 경우도 y가 없지만 그럴듯하게 만들어주지

네 생각과는 달리 완전 다른 도구임

0
2022.04.21
@월급받으며개드립하기

생성모델에 y가 왜 없어. Self일 뿐 y가 없는건 아님.

0
2022.04.21
@단다다다단

나도 여기에 동의함. 현재 딥러닝은 복잡한 맵핑일뿐... reinforcement로 가면 뭐 좀 다를까...

0
2022.04.21

답은 고차원 AI다...

0

요즘 AI 논문이 쏟아져 나오니까 1,2,5 정도는 해결하려고 있는 것 같은데. 4번은 딥러닝보다는 데이터 분류해주는 사람 이슈인 것 같다 ㅋㅋㅋ

0
2022.04.21

답은 대학원생들을 이용한 손러닝이다...

4
무분별한 사용은 차단될 수 있습니다.
번호 제목 글쓴이 추천 수 날짜
563 [과학] 경계선 지능이 700만 있다는 기사들에 대해 34 LinkedList 12 18 일 전
562 [과학] 번역)새들은 왜 알을 많이 낳는가? - 후투티의 형제살해 습성... 7 리보솜 3 2024.03.23
561 [과학] 학계와 AI, 그리고 Bitter Lesson (쓰라린 교훈) 26 elomn 35 2024.02.17
560 [과학] 지구의 속삭임, 골든 레코드의 우주 9 Archaea 10 2024.02.16
559 [과학] 잔혹한 과학실험 이야기 <1> 절망의 구덩이 19 개드립하면안됨 37 2024.02.15
558 [과학] 스트레스를 받으면 술이 땡기는 이유 12 동식 16 2024.02.10
557 [과학] 지능은 모계유전이 아니다. 40 울릉특별자치도 35 2024.01.26
556 [과학] 진화를 생각할 때 고려할 것들 23 날씨가나쁘잖아 12 2024.01.17
555 [과학] 학문적(과학적) 접근과 유사 진화심리"학" 26 날씨가나쁘잖아 19 2024.01.15
554 [과학] 호모 사피엔스의 야릇한 은폐된 배란에 대한 남녀 학자의 다... 14 개드립하면안됨 15 2023.12.29
553 [과학] 김영하의 작별인사를 읽고 느낀 점 (스포있음) 21 장문주의 2 2023.11.28
552 [과학] 제4회 포스텍 SF 어워드 공모전 ( SF 단편소설 / SF 미니픽션 ) 2 따스땅 1 2023.11.25
551 [과학] 펌) CRISPR 유전자 가위 치료제 "최초" 승인 12 리보솜 7 2023.11.25
550 [과학] 러시아는 기술산업을 어떻게 파괴시켰는가(펌) 9 세기노비는역사비... 15 2023.11.18
549 [과학] 고양이에 의한 섬생태계 교란과 생물 종의 절멸 (펌) 2 힘들힘들고 6 2023.11.16
548 [과학] 번역) 알츠하이머병 유전자는 어떻게 살아남았는가? 12 리보솜 10 2023.11.15
547 [과학] 『우영우』의 자폐 스펙트럼 장애 개념이 왜곡인 이유 (펌) 47 힘들힘들고 10 2023.11.12
546 [과학] 흑수저 문과충 출신 구글 취직하는 파이썬 특강 -1 14 지방흡입기 11 2023.09.27
545 [과학] 국가별 당뇨 유병율 이거 뭐가 바뀐건지 아는사람? 8 LAMBDA 1 2023.09.27
544 [과학] 물샤워 ㅇㅈㄹ 하는 놈들 봐라 171 철동이 48 2023.09.23