즐겨찾기
최근 방문 게시판

LG EXAONE3.5 올라마에서 돌려봄. 딥식과 비교

1. 웹페이지에 시간을 알려주세요 년월일 시간 분 디지털시계 코딩

2. 웹페이지에 하늘에서 별이 10개 랜덤으로 떨어지는 페이지 제작(둘다 찐빠남.. lg는 반짝이긴하는데 딥식은 그런것도없음. 이건 질문잘못한듯 )

3. 웹페이지 폭탄타이머 제작 30초 카운트(LG는 눌러야시작. 딥식은 페이지 로드하자마자 시작)

4. 에어컨 조작하는 스마트 웹페이지 제작(LG는 HTML, CSS, JAVA, node.js+express 활용, 딥식은 html만 활용)

EXAONE 7.8b DEEPSEEK R1 8b
image.png image.png

image.png

image.png

image.png

image.png

image.png

image.png

 

 

여러분들이 궁금할거같아서 딥식과 간단비교해봄

 

48개의 댓글

2025.02.14

엘지한테도 이런게 있었어?

0
2025.02.14
@CEASAR

LG AI Research라고 연구원들이 한국인인거보니까 맞는듯? 나도 개드립에서 정보 보고 한번 돌려봄

0
2025.02.14
@CEASAR

자사 직원용으로 만든거 있다한, 타율 괜찮네

0
2025.02.14
@IlIIllIIIllI

오픈AI 오픈소스때문인가

앵간한 회사 AI들 중

개구대기같은건 잘 없는듯

1
2025.02.14

그래서 요약좀.

0
2025.02.14
@헬하붕이

https://ollama.com/library/exaone3.5

 

0
2025.02.14
@소판돈

딥식이랑 비교해서 몇퍼정도나옴?

0
2025.02.14
@헬하붕이

그냥 참고용으로 해본거지 그런거 물어보면 모르무니다.

0
2025.02.14
@소판돈

그렇군용

사용했을때 느낌상으로 물어본건데 ㅜㅜ

0
2025.02.14
@헬하붕이

깔아서 잠깐해본거라 뭐없음 그냥 다른것들과 비슷함.. 개드립 커뮤니티 설명해달라하면 잘해줌..

0

https://www.dogdrip.net/614364374

분명히 이글에서는 댓글엔 엑사원 구리다며 오지게 까인거같은데. 진짜로 성능 괜찮음?

저렇게 성능 좋다고?

0
2025.02.14
@이거보인다면기분탓임

저것만보고 전체를 판단하면 안됨.. 그냥 아 엘지것도 비슷하게 되긴하구나 정도?

5
@소판돈

비슷하게 된다는건 괜찮은거아님?

다만 그냥 홍보도 안해서 망했다고하니.

0
2025.02.14
@소판돈

더 싼가격에 성능 또이또이하다 수준이면 존나 좋은거지...

병신같이 여전히 홍보는 똥볼차서 문제인거지 사내에서 계속 돌릴꺼면 애초에 말을 말던가...

0
2025.02.14
@이거보인다면기분탓임

내가 우연찮게 궁금해서 불과 3일전에 로컬에서 직접 테스트해봤음

엑사원 32b

딥싴 r1 디스틸 qwen2.5 32b

 

테이블 15개정도 되는 소규모 스키마 (필드 주석 빡세게 달아놔서 무슨프로그램인지 아는 인간이라면 보는순간 이해가능) 던져주고 join 4~5번정도 타야하지만 where절은 거의없는 꽤 간단한 쿼리 작성해달라고 했음.

엑사원은 진짜 못써먹을 정도로 발려서 2번 테스트하고 껐고, 딮식디스틸 qwen은 느린거 빼면 업무용으로 쓸수있는 수준의 결과는 나왔음

 

제로에서 만드는 코딩이랑 조건이 주어진 상태에서 추론하고 결과물 뽑아내는거랑 난이도가 후자가 더 높은것 같고, 엑사원은 그부분에서 "가성비"라는 타이틀도 붙이기 어려웠음

 

난 그래도 한국에서 한국어 유창하게 내뱉는 파운데이션 모델이 존재한다는 것 만으로도 엑사원 응원함. 다만 어제같은 개좆같은 언플만 안했으면 좋겠음. SOTA급 언플을 하면 나도 SOTA수준으로 기준을 높일수밖에 없어....

5
2025.02.14
@5783578965

오 한국어 괜찮게 나오나보네...

간단한 챗봇으로 엮어서 쓰는 수준 정도는 될 것 같아??

0
2025.02.14
@똑바로서라

그정도는 괜찮을듯?

능지보다 유창함을 원하면 aya expanse도 테스트해보셈 얘는 다국어지원 자체에 특화된 모델임

2
2025.02.14
@5783578965

오 추천 고마워 ㅎㅎ

 

작년 중순에 몇 개 써보고 못해도 2년은 더 기다려야지 쓸만한 수준이 나올거라 생각했는데...

간단한건 준수한 수준은 가능한가보네 ㅋㅋㅋ

 

주말에 테스트 해봐야지 ㅎㅎ 개꿀~

0
2025.02.14
@똑바로서라

32b는 속도의 문제이지 맥북프로 램32 장비만 있어도 테스트 쌉가능 ㅋㅋ

0
2025.02.14

오 그래도 이정도면 괜찮게 나온거 같은데?

0
2025.02.14

호오.. 이런 것 자주 올려줘~~ 재밌네

0
2025.02.14

벤치마크상 저성능 파라미터가 qwen 을 이기는게 고무적이네

0
2025.02.14

좋다는거야?

0
2025.02.14

딥식은 한국어 가끔 깨지면서 한자가 튀어나오던데 한국어 처리 관련된건 엑사원이 더 나음?

0
2025.02.14

직원용을 쓰는 입장에서 체감을 말해보자면 객관적 성능은 지피티 3.5보다도 별로인거같긴한데 일단 회사에서 편하게 자료찾을땐 편함

그리고 스스로 생성해서 답변하는 제네럴 모드는 진짜 별로인데 아카데믹으로 고정하고 쓰면 학술지같은 곳에서 내용을 정리해서 추려주는거같아서 꽤나 정확하고 쓸만함

지피티 4o보다 코딩능력은 많이 떨어지는듯

그냥 회사에서 빠르게 접근가능하고 무한으로 쓸수있어서 좋은거같은데 체감상 다른 언어모델이비해서는 퍼포먼스가 별로인거같아

 

아 맞다 대화를 하면 약간 문맥이 딱딱 끊기는것도있다

8
2025.02.14
@베어비어베어

마곡에 계셔요..?

0
2025.02.14
@뮐렝

마곡에있다가 지금은 트윈에있어요 ㅠ 마곡좀 보내주세요

1
2025.02.14
@베어비어베어

전자 건물들 다 지어져서 입주하셔가지고 사람들이 너무 많아서...ㅋㅋ

0
2025.02.14
@뮐렝

여의도는…. 그냥 헬이라 ㅋㅋㅋㅋ

0
2025.02.14
@베어비어베어

엑사원 원래 첨 발표할때도 아카데믹용으로 얘기했었는데 그런목적으론 진짜 괜찮아보임

일단 한국어 유창한 파운데이션 모델이 있다는것 만으로도 응원해야됨

어제같은 븅신같은 언플만 안하면 ㅋㅋ

1
2025.02.14
@5783578965

근데 문제는 보면서 느끼는게 저게 비즈니스모델이 있나 싶긴해서…

회사들이 진짜 분담금 어마어마하게 내는데 ai연구원이랑 일해보면 다들 어우 다신안해 하거든 그래서 걔들이만든 엑사원? 그게좋겠어? 하면서 거부감이 있는 사람도 있고

0
2025.02.14
@베어비어베어

계속 만들면 뭐라도 있겠지

딥시크 r1 논문이랑 cot 기법같은거로 뒷꽁무니만 쫒아가도 성능 올라갈 여지는 충분해보임

그런면에서 딥시크가 진짜 개미친새끼들인거 같고

1
2025.02.14

함 해봐야겠다

0
2025.02.14

돌려봤는데 7B수준에선 한국에서 만든 물건이라 그런지 한국어 대화가 가장 자연스러운 느낌임?

deepseek이나 mistral이나 7b수준에선 한국어가 처참하기 그지 없어서..

 

32B 모델은 사양 딸려서 못돌림 ㅠ

0
2025.02.14
@우리은하

7b는 진짜 걍 장난감이고 32b도 사실 제대로 성능 못냄

CoT 적용해서 유의미한 성능 향상 있는 미니멈이 70b나 그이상이라고 하더라

2
2025.02.14
@우리은하

그냥 한국어가 잘된다. 정도로 마무리 해야할 수준인가보네...

0
2025.02.14

설레발임 엑사원수준으로 얘기할거면 중국에도 열개는 있을듯

4
2025.02.14

좋냐 나쁘냐. 이런 댓글들이 많을거 같아서 남기면...

 

chatgpt부터 기타 등. 여러가지 모델들이 벤치 ㅇㅇ라며, 올라오는 편 인데...

이 숫자에 집착하면 안됨

 

흔히, 점수로 등수 나열을 하는 용도가 아니라 그냥 우리꺼 좋아요 뿌우... 마케팅 정도로 봐야하는건데

언제부터 숫자로 좋냐 나쁘냐. 이걸 궁금해하는건 이해되는데, 절대적 위치로 생각하는 친구들이 있는 것 같네;

 

읽어보고 써봐야지 알겠지만... 써봐야지 앎...

2
2025.02.14

둘다 논문이 공개 되어있으니깐 정량적인 성능이 궁금하면 직접 찾아보는게 가능하긴 함. 벤치마크만 보면 비슷한 성능이긴 하다. 요즘 벤치마크를 통한 정량적 평가 신뢰도가 박살나서 문제이긴한데

1
2025.02.14
@빨머

요즘 너무 숫자에 집착하는거 아닌가? 싶었는데... 나랑 비슷한 생각을 가진 친구가 있었구나 ㅎㅎ

0
2025.02.14
@똑바로서라

요즘 정량적 평가 수치가 너무 가파르게 오르다보니 관련해서 연구하는 양반들이 많음. 닥치는 대로 학습 데이터를 모으다 보니 학습 데이터 자체가 오염되었다는 소리가 많다. 벤치마크 데이터셋의 숫자나 결과랑 상관없는 문구만 바꿔도 성능이 떡락하기 시작함. chatgpt 조차도 그럼.

4
2025.02.14
@빨머

혹시, 좀 ㅊㅊ해줄 논문 있어?

0
2025.02.14
@똑바로서라

https://openreview.net/forum?id=AjXkRZIvjB 이런 거 참조해보면 될 듯 따끈따끈한 iclr2025 논문임. 짬 내서 관련 글을 읽판에 써보던가 해야겠다.

2
2025.02.14
@빨머

오오 고마워 ㅎㅎ 주말에 할일 생겼다 ㅎㅎ

0
2025.02.14
@빨머

읽판의 ai판화 가즈아

0
2025.02.16
@빨머

주말에 진짜 보고 있긴 한데... 역시, 난 아직 공부가 더 필요하다 ㅠㅠ

 

시간써서 링크까지 걸어줬는데 미안하고

좋은 주말 보내!!

0
2025.02.14

커뮤 글들 읽어보니

그냥 GPU 부족함 같은 열악한 여건 감안하면 괜찮은 편이고

라마 qwen 딥식 깉은 다른 모델보단 아쉽다는 것 같은데

0
2025.02.14

작년즈음 뉴스기사에서 엘지가 llm에 투자 많이 한다고 봤는데 성과가 나온건가?

0
무분별한 사용은 차단될 수 있습니다.