과학

Diffusion 모델 등 생성ai의 한계와 미래

인공지능 관련 일 하고 있는 애기 개붕이임.

 

현업 입장에서 하루가 멀다하고 미드저니 같은 그림 인공지능 써서 짤져오는 글이나 ChatGPT 이야기가 올라오는 환경이 재미있음. 이제 비전공자나 일반인들도 이쪽 관심이 많아지고 있어서 n년차 설명충이 나름대로 쉽게 이런 것들이 어떤 원리인지 쉽게 설명해보려고 함.

 

헬스장에서 자전거 돌리면서 쓰는 글이라 정리도 없고 퇴고도 없을거라 조금 엉성할 수 있음. 밥먹고 이 고민만 하는 게 일이라 머리속으로는 정리가 잘 되어있는데 글이 얼마나 깔끔할진 모르겠다.

 

먼저 그림 그리는 생성인공지능에 관해 써 보겠음.

 

1. 왜 요새 핫한가?

 

여러 이유가 있겠겠지만 제일 중요한건 언어로 제어가능하도록 만들었다는 점이 되겠음. 

 

이전에 그림찌는 모델이 없었던 건 아님. Diffusion 이전에 가장 핫했던 건 GAN 이라고 만드는 놈(Generator)이랑 잘 쪘는지 심판보는 놈(Discriminator) 이랑 같이 학습시켜서 심판이 좋아지면 만드는놈도 잘만들어야 하는 경쟁 방식을 썼음.

 

이 모델도 결과물 자체는 그럴싸 했는데 결정적인 건 내맘대로 조절이 어려웠음. Latent space controllability 라고 하는데 쉽게 개붕이들 눈높이에 맞춰 설명하자면 게임 캐릭터 커마 같은거라고 보면 됨.

 

캐릭터 커마 하면 눈코입 조절하는 막대기들 있을거임. 예전 방식은 막대기 하나 조정하면 다른 막대기들이 미쳐날뜀. 딱 상상해보면 이걸로 원하는 걸 만드는게 그지같이 어려울거라는 상상이 될 듯. 이 설명도 어려우려나...

 

예전 모델들이 이랬음. 입맛대로 바꾸기가 미친듯이 어려웠음.

 

2. 요새는 문장 써서 만들던데? 

 

예전과 요즘이 가장 다른 게 그 포인트임.

Diffusion 말고 CLIP이란 모델이 있음. 이 모델이 하는 가장 중요한 역할은 다음으로 요약 가능함.

 

그림을 암호화 한 숫자 = 문장을 암호화 한 숫자

 

가 되도록 메인 학습 전에 예습을 시킴.

 

이게 되면 뭐가 좋냐, 

문장을 암호화 한 숫자를 "그림처럼 취급이 가능" 함.

 

3. 그래서?

 

AI 학습 해본 사람은 알겠지만 학습 초기에는 결과물이 생 그지같이 나옴. 이걸 원하는 형태로 도자기 작업하는거마냥 깎아나가는 과정이 학습임. 

 

생성모델도 처음엔 노이즈에서 시작해서 데이터에 있는 그림이랑 비슷하게 만들어가도록 그림을 쪄나가는데, 이 과정에서 우리가 알고 있는 원본 그림이랑 비슷하게 만드는게 좋겠지?

 

이 때 앞서 설명한 CLIP을 쓰면 

 

주어진 그림이랑 비슷하게 만드는 과정 = 주어진 글이랑 비슷하게 만드는 과정

 

이 됨.

 

잘 학습이 끝나면 개붕이가 쓰는 글이 AI 모델에게는 수학적으로는 그림처럼 취급이 되고 그 그림이랑 비슷한 걸 찌게 됨.

 

이래서 제어가 가능해졌다는거.

 

4. 한계

 

Diffusion 모델을 공부해 본 개붕이들이 있으면 알겠지만, 이 모델은 

 

원래 있는 그림에서 '적당한' 노이즈 조금씩 추가 -> 조금씩 노이즈 복원 의 무한반복임.

 

수학적으로는 우리가 알고 있는 정규분포를 가정하고 각종 식전개 무쌍을 동원해서 기가막힌 조건을 유도하지만 이건 전공생들한테도 어려우니 넘어가고,

 

요는 " '적당한' 노이즈를 추가해서 복원한다. " 는 개념임.

 

쉽게 생각해서 아까 게임 캐릭터 커마 이야기로 돌아가면

커마용 막대기를 불편한 골짜기로 조금 일부러 보내놓고, 이쁜 얼굴이 대충 막대기가 어디에 있어야 하는지를 학습하는 과정의 반복임.

 

이게 뭐가 한계라는 걸까. 다시 말해 문제일까.

 

 

못생기거나 기상천외한 걸 못 만듬. 

 

고상한 말로 데이터셋의 분포 안에서 놀게 된다고 할 수 있는데. 주어진 데이터 셋의 분포랑 가장 유사한 분포밖에 만들지 못함.

 

조금 극단적으로 말하면 (수학적으론 틀린 설명이지만)

얼굴인지 아닌지 긴가민가 한 얼굴

건물인지 뭔지 애매한 건물

이런건 못 만든다는 거임.

 

5. 예전에도 그랬잖아?

 

맞음.

 

잘 만들고, 언어로 제어가 가능해 진 것이지, 주어진 데이터셋의 분포를 벗어나는 걸 할 수 없음.

 

인간의 창의성은 이유에 대한 설명과정임.

온갖 어처구니 없는 바보같은 상상도 자기가 가지고 있는 논리로 조합만 되면 자기합리화 하는게 인간의 창의성이 가진 어찌보면 위대한 점임.

 

아직은 그런거 못 함.

 

6. 그런게 나올까? 

 

나올거라고 봄. 빠르면 올해 늦어도 3년 안에. 주변에 이런 소리 하면 놀라지만... 

 

슬슬 자전거만 돌렸는데도 땀이 나서, 오늘 글은 여기까지.

 

반응 좋으면 연재각도 재볼게.

 

좋은 하루 되길.

51개의 댓글

인류는 스스로 창의적이라는 거만한 생각을 한다

교육이란 것은 선대의 지식을 답습하는 것이고, 대부뿐의 사람은 교육받은 것에서 크게 벗어나지 않는다

인공지능도 현재 그렇다

3
2023.02.13
@살다보면그럴수도있지

첫댓죠졌네

 

대부분은 그렇지만 일부는 그렇지 않고

 

보통 그 일부가 혁신을 해서 다음 세대를 여는 것 아닐까?

 

그 혁신을 하기 위해서 전 세계에 있는 일부가 천문학적인 돈을 때려부어가며 겁나 달리고 있음.

6
2023.02.13

지금에야 embedded space에서의 distance를 기반으로 접근하지만 22년부터 23년 아카이브에도 knowledge reasoning쪽 연구들이 많이 이뤄지고 있더라, abnormal detection의 Out-of-distribution을 위한 methods들도 점점 CLIP같은 모델들의 Pre-training 과정에 추가될텐데...앞으론 정말 누가누가 gpu cluster을 많이 갖고있나에 대한 싸움이 될 것 같음

1
2023.02.13
@G0ranii

Reasoning 아키텍쳐가 클러스터 수에 얼마나 디펜던시를 가질지는 모르겠음.

 

난 개인적으로 reasoning이랑 가장 유사한 프로세스는 가우시안 프로세스 같은게 아니라 MCTS같은 서칭으로 latent space를 떠돌아다니면서 발견한 latent vector가 원래 가지고 있는 정보랑 유사한지를 찾아가는 nonlinear 과정일거라고 생각함. 쉽게 말하면 알파고로 CLIP latent space 의 value와 policy를 navigation 하는 과정과 유사한 뭔가.

 

게임과 같이 명확한 보상이 있는 거랑 학습의 난이도가 좀(전혀) 다르겠지만..

 

사람이 음악이나 예술에서 만족감을 느끼는 과정처럼 구조가 설계된 로스와 유사한 강화학습이 등장하지 않을까 생각함.

 

사람이 만족하는 순간은 되도 않는 사전지식의 chain이 뜻밖에 기대대로 이루어 질 때라고 생각. 이런 형태로 로스를 짜는 것은 클러스터의 크기랑 그닥 관계가 없을 가능성이 큼.

 

크면 클 수록 좋은 건 사실이지만 지금 빌리언급 언어모델이 클러스터가 큰 이유는 리즈닝을 위한 아키텍처가 없이 brute force search급으로 학습을 하려 해서라고 보는 주의임.

 

 

0
2023.02.13

오 그러네 클립으로 더 embedding들을 더 정교하게 뽑아낼 수 있게 됐다는게 와닿네

그래서 뭔가 요즘 드는 생각은 정교하지만 적당한 그림, 영상을 만들어내는 창작자보다 기상천외한걸 만들어내는, 지금은 비주류인 창작자들이 앞으로 몸값이 높아지지 않을까 생각함.

전체 임베딩 스페이스를 넓혀줄 수 있는 데이터를 만들어준다고 해야하나

1
2023.02.13
@아름다운새끼

동의함

 

현재 모델들은 Distribution을 벗어나는 발악이 latent space에서의 gaussian nosie -> denosing 이라 끽해봐야 가우시안 분포에서 넓어지겠지.

 

개붕이 말대로 이런 상황에서는 데이터 분포의 차원과 폭을 넓혀주는 창작자들의 벨류가 훨씬 높아질거임.

 

하지만 내 생각은 그걸 넘어서서 그 분포를 벗어나는 발악을 "하고 싶도록" 구조랑 로스를 짠 AI 의 등장이 올해 일어날 일이라고 예상함.

 

이게 나온다면 개붕이가 말한 기상천외한 창작자들이 하는 일을 ai가 하게 될 거고, 그런 데이터를 만드는 것 까지 인공지능이 해버리면 인간의 설 자리는 어디에 있을지... 사실 잘 모르겠음.

0
2023.02.13

얼굴인지 아닌지 긴가민가 한 얼굴

<- 이걸 못만든단 설명이 이해가 잘안가서ㅠ

비의도적으로 저게 나올순있어도

의도적으로 저걸그릴순없다는건가?

 

근데 그냥 strange face, weird anatomy 이런식으로만 입력해도 그림 나오지않나?

1
2023.02.13
@scendo

그 정도의 분포는 있는 분포임.

 

비유하자면 뭉크의 절규 같은 화풍의 그림이 디비에 없는 모델로 뭉크 못 만든다는거임.

 

Weird라는 것이 주어진 학습 데이터셋 안에서 분포로 정의될테니, 그 걸 벗어나는 건 아직 못 한 다는 이야기ㅡ

1
2023.02.13
@scendo

그 strange마저도 일반론적인 관점에서의 strange인거지. 돌연변이같은 관점의 strange는 표현불가능할걸

1
2023.02.13

나 이쪽 분야에는 문외한인데, 네가 말한 그런 한계를 돌파할 가능성이 현재 보이는 단계임?

아니면 현재 기술로는 조금 어렵고 새로운 혁신이 또 한번 나와야 하는 거임?

 

내가 기술적인 부분은 잘 모르지만, 내가 요즘 나온 ai그림이니 gpt니 써보고 느낀 바로는 아직은 뭔가 굉장히 한계가 명확하다는 느낌이 들어서.

사람들이 기대하는 창의적인 무언가, 새로운 창작물을 생산하는 건 아직 좀 멀었다고 느껴지더라고.

1
2023.02.13
@이노스탭

현재 기술이 가지는 한계와 무엇을 뚫어야 하는지를 나 정도 되는 나부랭이가 분위기 보고 파악할 정도라...

 

세계구급 천재들이 현재 가진 모델의 한계가 무엇인지 그리고 어떻게 뚫으면 각이 나올지는나보다 더 잘 알거라고 생각함.

 

작년 말 딥마인드가 낸 인공지능 최고급 학회 논문 중에

- 사전지식을 추상화해서 지금 정보랑 유사도를 비교한 후 다음 전략을 짜는 인공지능

- 호기심을 기반으로 예상을 탐색하는 모델

 

두 개가 있음.

 

이 두 개가 조합되면 내가 생각하는거랑 비슷한 것들이 나올텐데 학습이 얼마나 어려울지는 안 해본 영역이라 감이 안 오지만, 내 생각은

 

머지 않았음.

 

본문에 쓴 대로, 빠르면 올해, 길어야 3년 안에 진짜 인간급 창의성에 도전하는 인공지능 모델이 나올거임.

0
2023.02.13
@년째설명충

오 이미 해결방안도 가닥이 잡혔구나.

창의성 부분도 해결되면 진짜 굉장하겠네.

 

난 아직 이 수준으로는 그냥 보조도구 정도라고 생각했는데 그때되면 진짜 ai 혼자 플레이어로 뛸 수 있겠다.

2
2023.02.13
@이노스탭

적어도 개붕이가 생각하는 부족함이야 연구자들은 당연히 잘 알고 있고, 개선하려고 미친듯이 덤비고 있음.

 

창의성을 수학적으로 이해하고 구현하는 일에 대한 필요성을 마주했으니, 적어도 올 해 한 가지 확실한 건

 

논리를 기반으로한 창의성을 설계해서 데이터셋과 로스펑션 기반 학습의 한계를 뛰어넘으려고 발악하려는 한 해가 될거.

0
2023.02.13

좋은글 잘읽었음.

창의성이라는게 좀 모호한 거 같은데, 창의성을 나타내는 지표가 애매한 거 같음?

만약 창의성을 정의하는 지표가 있고, 만약 어떤 모델이 특정 작업에서 창의성지표가 인간보다 높으면 창의성이 있다고 봐도 될 거 같음.

바둑을 예로 들면 알파고는 인간이 예상할 수 없는 수를 두니까 창의적이라고 볼수 있을거 같은데( 정확히는 인간보다 많은 경우의 수를 예상하고 두는 건가?), 문제는 이미지 생성에서 그걸 어떻게 정의할 수 있을지 모르겠네..

아무튼 좋은 글 잘 읽었음!

 

1
2023.02.13
@soypablo

전공생이라는 가정하에 답을 하자면,

 

가보지 않은 조건부 확률의 chain으로 기존의 latent vector를 MCTS로 찾아가는 과정일 거라고 생각함.

for latent_x in latents:

P(any latent in latents | latent_x) 가 P(latent1|latent2) * P(latent2|latent3) * P(latent3|latent4) * ... 랑 비슷한가? 아니면 탐색 계속

 

보통은 우변의 확률이 낮게 나오게 마련인데 우변을 이리저리 해보다가 갑자기 뜬금없이 좌변이랑 높은 수로 같게 뜨면 기분좋은 게 인간이 호기심으로 이것저것 해보다가 찌릿한 기분을 느끼는 순간이라고 생각함.

 

이거 모델링이 올 해 안에 될 거라는게 내 생각인데 이건 글을 새로 하나 써야 할 듯.

0
2023.02.14
@년째설명충

조금 내가 생각한거랑 결이 다른거 같은데..

내가 바둑을 예시로 들어서 그런가 너가 얘기하는건 모델의 학습 방식을 얘기하는 것 같고(강화학습 잘모름..)

내가 생각하는 문제는 창의성을 평가하는 지표가 없다는 거지. 모델의 학습방식을 기반으로 평가하기엔 호기심 != 창의성이고.

바둑은 승리라는 명확한 평가가 있어서 강화학습으로 학습이 가능한데 이미지 생성은 그러한 지표가 없다는거임.

그럼 결국 데이터셋분포로 학습을 해야되는 거 아님??

기존에 사용하던 fid같은 평가지표는 기존 데이터셋의 분포와 유사한지를 평가하는 평가지표여서 새로운, 창의적인 이미지를 생성하는 모델의 지표로는 별로 쓸모가 없는 거같고. 요는 창의성을 어떻게 평가하냐는 거지.

0
2023.02.14
@soypablo

ㅇ 이해했음 모델링을 어떻게 할 것이냐가 아니라 어떻게 평가할 것이냐 라는 질문이고 정곡을 찌르는 질문임. 이 질문에 대한 내 생각을 답하기 위해선 글을 하나 써야 할 것 같으니 시간날 때 써 볼게.

 

짧게만 써 보자면...

 

"원숭이 엉덩이는 빨개, 빨가면 사과, 사과는 맛있어, 맛있으면 바나나 ...."

 

 

"고민 하게돼 // 우리 둘사이" <축의금> - 하상욱

 

이 두 글 중에 어떤 글이 더 창의적일까?

 

사람마다 생각이 다르겠지만 나라면 후자에 점수를 줄 것 같고, 그 이유는

 

전자는 사전정보로부터 연상하는 정보의 깊이가 얕은 반면, 후자는 웃기 위해 연상해야 하는 정보의 연결 길이가 길다. (tree depth)

전자는 사전정보로부터 연상되는 새로운 정보의 난이도?자체가 낮은 반면, 후자는 정보의 난이도가 높음. (Node complexity)

 

이 두 개 말고도 더 있을 것 같긴 한데 간단하게는 요 정도로 스코어링 해 볼 수 있지 않을까 하는게 내 생각임.

 

더 쓰려면 글이 필요함.

0
2023.02.13

이미지를 base64 같은 문자로 만든다음에 그걸 입력 문자와 비교시켜서 단어를 넣으면 그림으로 다시 변환해주는거야?

예를들어

만약 사과 그림을 문자열로 변환하면 "apple123"이라는 문자가 되고 이런 사과 그림을 계속 학습시키면

비슷한 이미지가 중간박스 넘어 apple### 이라는 단어로 인식이 되는거고

사용자가 apple이라고 입력하면 컴퓨터는 이걸 사과 그림으로 변환해주는식인거임?

구글 이미지검색이랑 비슷한 건가?

0
2023.02.13
@세법조무사

어...음.. 부정확한 표현에 근질거리는 누군가가 답을 할 거라고 생각했는데 아무도 안 했네...

 

Base64를 아니 컴공이라고 가정하고, 선형대수를 배웠다는 가정하에 설명하자면,

 

그림의 정보를 벡터로 변환하는 A라는 연산이 있고,

텍스트의 정보를 벡터로 변환하는 B라는 연산이 있다고 하자.

 

CLIP은 이 두 연산이 보낸 각각의 벡터에 대해서, 그림에 대해 올바른 설명은 같은 벡터(내적이 1이 되도록)로 보내고, 다른 설명은 직교하도록 (내적이 0이 되도록) 보냄.

 

그럼 그 A와 B 변환의 내적이 만드는 벡터공간에서는 두 정보가 가지는 의미가 같아짐.

 

Stable diffusion에서는 이거랑 tansformer의 cross attention아이디어를 이용해서 이미지 생성 하는 작업에서 텍스트 입력이 가이드를 줄 수 있는데, 구형이긴 해도 온갖 ai설계의 좋다는건 다 끌어다 쓴 부분이라 댓글로는 쉽게 설명할 자신이 없다....미안

1
2023.02.13
@년째설명충
0
2023.02.13
@년째설명충

아 이해하는데 3번읽어봤다 대충 감이옴 ㄳ

0
2023.02.13

애기야 가자

0
2023.02.13

Creativity is overrated. People thought there was a "creative move" in chess or go, and it turned out that machines were better at those "unexpected" or "unpredictable" moves from their extensive computations.

 

Creativity is just a better complicated solution that can be computed from machines. In addition, avocado chair is the representative example that the model can generate the samples that didnt exist in the training distribution

1
2023.02.13
@9abdb

Right. Combining words like "avocado" and "chair" IS the creativity.

0
2023.02.13

그 CLIP이란 거, 논문 내용이라도 알고 싶으면 무슨 공부를 해야 하는지 알려줄 수 있어? 그래도 수리통계부터 해석학까지는 해놓아서 새내기때 GAN 관련해선 뭔 말 하는지는 이해가 갔는데, 최근 6개월 전에서야 Diffusion은 무슨 기능인가 살펴보다 "랑주뱅 동역학" 이야기하는 거 보고 내가 공부를 열심히 안했음을 뼈저리게 깨달음...

1
2023.02.13
@난쓰레기

사전필요지식

transformer, vision transformer(필수 아님, 권장)

 

두 개 읽고 나면 (쉽다고는 안 했다) clip이야 아무 국내 설명 블로그 읽어도 이해는 차고 넘칠 듯.

 

궁극적으로 diffusion을 수학적으로 이해하고 싶은 거라면:

Diffusion 설명에 랑주뱅 동역학까지 동원하는건 솔직히 현학적이라고 봄

VAE 공부하면서 elbo가 뭔지 알아보고, 이 녀석이 diffusion 혹은 ddpm에서 어떻게 바뀌었는지 차이점이랑 loss텀의 물리적 의미에 대해서만 감 잡으면 충분함. (역시, 쉽다고는 안 했다 ㅋㅋㅋ)

1
2023.02.13

지식은 없고 관심만 있는 1인인데, 결국 인공지능이 아무리 대단해 보여도 그 속을 들여다보면 무한 원숭이 정리에서 벗어나지 못한 거 아닌가 라고 혼자 생각하고 있음. 교양 차원에서는 강인공지능이랑 약인공지능이라고 나누는 거 같던데, 'AI야 골드바흐 추측 좀 증명해봐.'라고 했을 때 진짜 할 수 있는 AI는 현재의 방법으론 애초에 만들 수가 없는 거 아닌가 라고 해석하고 있음.

 

무한 원숭이 부리는 걸로는 한계가 있을 거야 -> 체스가 정복됨(딥마인드) -> 체스에 판이 적으니 효율적으로 원숭이 부리는 알고리즘 짜면 가능했을 지도 모르지. 더 판이 크고 복잡한 바둑은 어림없을 걸. -> 바둑이 정복됨(알파고) -> 놀라워! 규칙이 정해진 게임은 쉽겠지. 그렇지만 다른 건 불가능할 거야 -> 그림(일러스트)이 정복됨(NOVELAI) -> 세상에! 대체 어떤 알고리즘을 쓴 거지? stable diffusion이라고? 그런 걸로 됨? -> 자연어 처리가 가능(Chapgpt)

 

안될 거 같은 게 되어가는 건 맞는데 근본적으로 지능이라는 게 탄생했다기 보다 보다 효율적인 학습 알고리즘과 보다 강력한 컴퓨팅 파워를 사용하여 원숭이를 부리는 게 능숙해졌다는 게 맞는 표현이 아닌가 싶음.

 

나는 이런 식으로 이해하고 있는데 좀 더 게시글을 연재해 주면 나 같은 사람에게도 도움이 될 듯.

 

 

1
2023.02.13
@불타는밀밭

ㅇㅇ 맞음. 약 인공지능의 대세인 데이터 옵티마이제이션+경사하강과는 다른 방법론이 필요할 수 있음. 계속 쓰게 된다면 그 이야기를 하겠음.

0
2023.02.13

나는 그림보다 텍스트 쪽에 관심이 있어서 chapgpt에게 상황 설정이나 프롬프트를 조작해 소설을 쓰도록 유도해 본 적이 몇 번 있는데, 다음과 같은 문제점이 있었음.

 

1. 참고용으로 ~~한 내용의 소설을 찾아달라고 했을 경우 -> 엉터리로 찾아줌. 예를 들어 코난 사가와 같은 근육질 바바리안이 주인공인데 주인공이 여성인 소설이 있냐고 물으면 'Ann Cross'라는 여성 작가의 'Limitless Moon' 이라는 소설 시리즈가 있다고 대답하는 식인데, 실제로 찾아보면 'Ann Cross'라는 작가가 없거나 있다고 하더라도 그 작가가 쓴 소설의 이름은 'Limitless land' 이고 코난 사가와는 전혀 관련 없는 미국 이주 개척 역사를 다룬 소설인 식임. 그래서 chapgpt가 말하는 사실은 항상 검증이 필요함.

 

2. ~~한 내용의 소설을 같이 써보자고 하는 경우 -> 초반 대강의 줄거리와 등장인물 설정은 다 어디서 본 느낌이 나지만 굉장히 수월하게 잘함. 그러나 소설의 내용조차도 윤리적으로 끌고 가는 성향이 심함(이건 검열 제한 때문인 거 같긴 한데), 소설의 캐릭터에게 말 못할 비밀이 있다고 하면 그 다음 장면이 거의 무조건 주인공이 주변인물에게 비밀을 고백하고 용서를 구하는 장면임. 아무리 내가 비밀을 지켜야 한다고 말해도 안 들음.

 

그리고 어느 정도 세션에서 내용이 진행된 경우, chapgpt는 자신의 대답 내용을 최대한 바꾸려 들지 않음. 예를 들어 전쟁의 진행에서 우리 진영이 적군보다 3배가 많았음. 그래서 당연히 스무스하게 압승하는 쪽으로 내용이 흘러감. 내가 만약에 개입하여 '우리 진영보다 적군이 3배가 많았다고 하고 내용을 다시 써보자'라고 해도, chapgpt는 '우리진영보다 적군이 3배가 많았지만, 그럼에도 불구하고~ 우리 진영이 이겼다'고 하면서 먼저 번과 동일한 내용을 복붙함. 이건 사용자 1인에게 할당되는 자원을 절약하는 그런 제한요건이 있어서인지 어째서인지 모르겠음. chapgpt 기억력 토큰 같은거 고려하면서 세션을 진행해도 별 달라지지 않았던 거 같음. 그래서 나중가면 갈 수록 chapgpt가 제시하는 내용이 내가 맘에 안들어서 고치려 해도 잘 고쳐지지 않다고 오류나서 펑 하는 경우가 많았던 거 같음.

 

이건 한 한달 전에 공짜 버전에서 이랬다는 거고 유료 버전은 좀 달라졌나. 듣기로는 검열이 더 심해져서 소설 쪽으론 아예 못 쓰게 되었다는 거 같던데.

0
2023.02.13
@불타는밀밭

이 이야기는 그림생성인공지능과는 다른 자연어 처리 및 생성 관련 이야기인데, 사실 설계구조를 보면 그럴 수 밖에 없어서 용도를 명확하게 이해하고 강점과 불가능을 알고 쓰는게 중요하다고 생각함. 언어 인공지능이 어떤 방식으로 학습되었는지를 구조랑 학습과정까지 이해하면 그럴 수 밖에 없음. 이것도 글 하나짜리인데 언제 쓰지...

0
2023.02.13
@년째설명충

비전공자 입장에서 그림과 언어 인공지능은 대체 어떻게 만들었는가 싶은 건 대체 뭘로 학습조건을 걸었느냐는 거임. 체스랑 바둑은 이긴 게 잘 한거임. 그렇지만 언어랑 그림은 뭐가 더 잘 나온 결과인지 인공지능 스스로는 판정할 수 없을 거고, 사람이 하나하나 판정해서 피드백을 줄 순 있겠지만 너무나도 어마어마한 노동량이 필요했을 거라 이렇게는 안했을 거 같은데.

0
2023.02.13
@불타는밀밭

아, 그리고 이건 내 과거 전공이랑 관련된 거긴 한데, 체스랑 바둑 같은 형태의 게임에는 '무적수'가 존재함. 더 간단한 형태인 오목은 아마 '무적수'가 발견되어 있음. 바둑, 체스 인공지능 ELO가 인간 챔피언의 두배가 넘는다 뭐 이렇게들 이야기 하는데 얘네들도 아직 '무적수'는 찾아내지 못한 거 같네. 얘네들 계속 바둑 두게 시키면 언젠가 '무적수'를 찾아내려나? 그럼 더 이상 인공지능들에겐 바둑 두는 의미가 없어질텐데.

0
2023.02.13
@불타는밀밭

무적수 자체를 찾는 것 보다 현재 상태의 가치(Value)를 완전탐색하지 않고도 추론하는 방법과, 역시 완전탐색 하지 않고도 무적수에 근사한 방법(Policy)을 추측하는 방법을 알아낸 거가 중요함.

 

직관의 모델링이랄까.

 

Value Network랑 Policy network로 시간이 천문학적으로 걸리는 완전탐색 대신 직관적으로 적당한 시간 내에 결론을 잘 내리는 방법을 만들어 낸게 기여점임.

0
2023.02.13
@불타는밀밭

참고로 chat gpt와 알파고, 그림 생성 인공지능은 연관성은 있지만 사실상 전혀 아이디어와 문제의식으로 접근함. 그래서 인공지능이라는 추상적인 주제에 대해 이 친구들을 하나씩 가져와서 장단점을 논하면 이야기가 힘들어짐. 서로 전혀 다른 거라서.

0
2023.02.13
@불타는밀밭

비유하자면 삽화가랑 번역가랑 프로게이머 각각이 못하는 거 토론하면서 장님코끼리 만지듯 인간의 창의성을 논하게 될 가능성이 큼.

 

창의성이 어떻게 수학적으로 표현되며 이를 현대 인공지능에서 어떤 방식으로 만들어가고 있는지에 대해서 이야기하는게 좋음.

0
2023.02.13
@년째설명충

땡스, 묻고 싶은 건 많지만 다음에 연재글을 쓰게 된다면 관련되었을 때 기회나면 질문 써봄. 감사

0

글 잘읽었다.

나는 토목 쪽에 있는 게이인데 AI에 관심이 생겨서 토목 동역학분야에 접목해보려고한다..

 

그래서 질문하나 하려고하는데 대답해주면 참 기쁘고 도움이 많이 될것같다..

1. Matlab에서 제공되는 ANN neural network tool box같은 기능은 아주 기초적인 기능 이라고 생각해도 되는 부분이야?

2. 무슨 유튜브동영상 봐야되냐 도대체 ㅅㅂ

------내가 하고싶은건 실제실험결과와 내 프로그램에서 도출한 결과값의 일치를 위한 파라미터 정수 결정을 AI를 통해서 도움을 받고 싶은디..

 

진짜 단답이라도 도움 많이 될것같다

항상 행복하고

연구원인것같으니까 이번년도도 논문 많이 쓰길 바란다......

1
2023.02.13
@교토대학우지캠퍼스

1. Matlab에 그런거 없던 시절에만 써봐서 잘 모르겠지만.. 문서 보니까 이미지 분류 쪽에서 2017년 꺼를 베스트로 놓은 걸 보면 모델 자체는 이바닥에선 옛날거가 맞음.

 

저 중에 기초라고 할 만한 건 cnn계열에서 주구장창 레퍼런스로 쓰이는 resnet만 알아도 됨. 요샌 transformer로 넘어가는 분위기.

 

근데 기초냐 라는 질문은 답하기 어려움. 저 모델 하나하나에 들어간 아이디어는 딥러닝 학습과정 전체로 보자면 기초가 아니기 때문.

그리고 엔지니어링 게이면 기초냐 아니냐보다 풀려는 문제가 잘 풀리느냐로 접근해야 한다고 생각함.

 

2. 그 차원에서 주어진 문제가 딥러닝으로 풀어야 하느냐 라는게 궁금함. 듣기만 해선 동역학 모델링 파라메터를 실험결과에 피팅하고 싶은 것 같음. 동역학 모델은 가설기반으로 픽스되어있고 파라메터가 뭐여아 하는지 모르는 상황이려나. 말만 봐선 단순 회귀문제 같긴 한데..

 

회귀문제는 기본적으로 주어진 실세계 모델 A에 대해 x를 넣으면 y가 나와야 하는 걸 아주 많이 알고 있을 때, (대량의 실험)

물리적으로 말이 되는 f_deep(x)=y'를 설계해서, 손실=y'-y 로 학습이 가능하다는 것이 기본임.

 

문제는 f_deep()이 충분히 실세계를 반영할 수 있을 정도의 복잡도와 논리적으로 말이 되는 구조를 가지는 네트워크여야 할텐데, 그건... 도메인 지식이 있는 사람 자문이 필요할 것 같음.

 

도메인 지식 없이 모델 설계하면 200프로 오버피팅 날 뿐만 아니라 공격받기도 좋음.

0
@년째설명충
[삭제 되었습니다]
MWL
2023.02.14
@교토대학우지캠퍼스

2.2는 딥러닝 모델 하이퍼 파라미터를 튜닝하는 문제들과 더 유사해보이는데. Bayesian optimization 쪽을 찾아보는게 좋지 않을까 싶음.

1
2023.02.13
@교토대학우지캠퍼스

https://youtu.be/XUrRpds9W6Y

RL 로 풀고 싶으면 이런 방법도 가능하지만 개고생길이 훤하니 성과가 필요하면 비추.

0
2023.02.13
@교토대학우지캠퍼스

일단 이거부터 보고 풀려는 문제에 적용가능한지 보길.

https://wikidocs.net/53560

0
2023.02.13
@교토대학우지캠퍼스

걱정되는건 시스템의 입력이 아니라 모델 파라메터를 튜닝하고 싶은거면 Axy=z 문제라서 풀려는 문제에 맞는 접근방법일지 확신이 안 섬.

0
2023.02.13
@교토대학우지캠퍼스

기초부터 시간 들여서 공부하고 싶으면 요샌 이거 보는 듯 함. 라떼는 이런 거 없었는데....

 

https://youtu.be/BS6O0zOGX4E

0
[삭제 되었습니다]
2023.02.13
@치즈버거플리즈

시청각은 그럴 가능성이 있음. 다만 나머지 감각, 즉 촉각, 후각, 미각이나 진화하면서 생긴 본능레벨의 감정들은 암만 발달해도 주진 못할거임.

 

감정과 호르몬과 같은 생물학적 반응, 두려움이나 안도 같은 생존본능에서 발달된 감각은 인공지능이 모사할 수 있을지언정 이해할 수 없고, 이해할 수 있다손 치더라도 물리적으로 제공하긴 어려울 가능성이 큼. 마치 사람이 새나 벌레에게 성욕을 불러일으킬 수 없는 것처럼.

 

감각기관이 없으니 학습할 방법도 마땅찮고 상호작용은 더더욱 불가능함. 이 지점에서 아마 사람은 여전히 사람을 필요로 할 거고, 이런 분야의 예술은 여전히 유의미할 것.

 

단, 자본이나 국가 같은 거대 시스템이 계속 인류를 필요로 할 때 이야기 ㅎ

0
MWL
2023.02.14

가보지 않은 길을 가서 예측된 결론을 얻을 때가 창의성이라고 가정하는거도 되게 재밌는 견해네. 좋은 글 감사.

1
2023.02.15
@MWL

한 방에 의미를 바로 쉽게 이해해줘서 감사... 캐치해서 쉽게 표현해주는게 대단하네. ㅇㅇ 이거 관련해서는 꽤 오랫동안 혼자 정리글을 쓰고 있음.

0
2023.02.15

정보 고마워. 혹시 클루닉스라고 들어봤음?

0
2023.02.15
@charlote

모름. 찾아보니 rnd 인프라쪽이 업인 것 같네?

0
무분별한 사용은 차단될 수 있습니다.
번호 제목 글쓴이 추천 수 날짜
563 [과학] 경계선 지능이 700만 있다는 기사들에 대해 34 LinkedList 12 29 일 전
562 [과학] 번역)새들은 왜 알을 많이 낳는가? - 후투티의 형제살해 습성... 7 리보솜 3 2024.03.23
561 [과학] 학계와 AI, 그리고 Bitter Lesson (쓰라린 교훈) 26 elomn 35 2024.02.17
560 [과학] 지구의 속삭임, 골든 레코드의 우주 9 Archaea 10 2024.02.16
559 [과학] 잔혹한 과학실험 이야기 <1> 절망의 구덩이 19 개드립하면안됨 37 2024.02.15
558 [과학] 스트레스를 받으면 술이 땡기는 이유 12 동식 16 2024.02.10
557 [과학] 지능은 모계유전이 아니다. 40 울릉특별자치도 35 2024.01.26
556 [과학] 진화를 생각할 때 고려할 것들 23 날씨가나쁘잖아 12 2024.01.17
555 [과학] 학문적(과학적) 접근과 유사 진화심리"학" 26 날씨가나쁘잖아 19 2024.01.15
554 [과학] 호모 사피엔스의 야릇한 은폐된 배란에 대한 남녀 학자의 다... 14 개드립하면안됨 15 2023.12.29
553 [과학] 김영하의 작별인사를 읽고 느낀 점 (스포있음) 21 장문주의 2 2023.11.28
552 [과학] 제4회 포스텍 SF 어워드 공모전 ( SF 단편소설 / SF 미니픽션 ) 2 따스땅 1 2023.11.25
551 [과학] 펌) CRISPR 유전자 가위 치료제 "최초" 승인 12 리보솜 7 2023.11.25
550 [과학] 러시아는 기술산업을 어떻게 파괴시켰는가(펌) 9 세기노비는역사비... 15 2023.11.18
549 [과학] 고양이에 의한 섬생태계 교란과 생물 종의 절멸 (펌) 2 힘들힘들고 6 2023.11.16
548 [과학] 번역) 알츠하이머병 유전자는 어떻게 살아남았는가? 12 리보솜 10 2023.11.15
547 [과학] 『우영우』의 자폐 스펙트럼 장애 개념이 왜곡인 이유 (펌) 47 힘들힘들고 10 2023.11.12
546 [과학] 흑수저 문과충 출신 구글 취직하는 파이썬 특강 -1 14 지방흡입기 11 2023.09.27
545 [과학] 국가별 당뇨 유병율 이거 뭐가 바뀐건지 아는사람? 8 LAMBDA 1 2023.09.27
544 [과학] 물샤워 ㅇㅈㄹ 하는 놈들 봐라 171 철동이 48 2023.09.23