:: 게시판
:: 이전 게시판
|
- 자유 주제로 사용할 수 있는 게시판입니다.
- 토론 게시판의 용도를 겸합니다.
통합규정 1.3 이용안내 인용"Pgr은 '명문화된 삭제규정'이 반드시 필요하지 않은 분을 환영합니다.법 없이도 사는 사람, 남에게 상처를 주지 않으면서 같이 이야기 나눌 수 있는 분이면 좋겠습니다."
25/01/28 10:36
중국의 ai 기술이 엄청나다더군요 전세계 ai 업계에서 미국 중국 이외의 나라와 미국 중국 간의 격차가 어마어마하다더군요.
우리나라는 ai 업계에서 저들에 겨룰 수 있는 수준인지 궁금하네요.
25/01/28 10:47
네이버나 카카오가 저런걸 만들 순 없는건가요? 들인돈이 진짜라면 우리도 불리할게 없는어보이는데요?
제 반려주식인 카카오와 네이버주식이 빨갛게되는걸 보고싶어요...
25/01/28 11:00
네이버가 ai쪽 기술력은 좀 되는 걸로는 아는데
이번에 쇼크를 보여준 딥시크 정도 인가는 애매합니다. 다만 딥시크 기술을 이용해가지고 네이버가 노리고 있는 시장을 더 파고들 여지는 있습니다. 이전에는 네이버가 기술력은 좀 되는데 규모따라가는게 사실상 불가능해서 다른쪽으로 파고 든걸로 알고 있었거든요.
25/01/28 11:03
우리나라 기업들은 솔직히 애기드리면 방향성을 못잡고 갈팡질팡 하는 중이라...
근데 이번건이 AI 서비스를 개발하는 우리나라 기업 입장에서는 좋은 일이라 보여집니다. 오픈AI에 비싼 API 사용료 내고 상용 AI 서비스 개발하기에는 사실 수지타산이 안맞고, 그렇다고 메타껄로 가기에는 애네 라이센스 정책이 솔직히 애매해요.
25/01/28 11:50
비용/인력 문제가 가장 컸는데
딥시크 방식을 활용해서 한국어에 특화된 AI 를 국내업체들이 발전시킬 포인트는 제시가 됐다고 보지만 그렇다고 반려주식들 주가가 오른다는 보장은 1도 없다는게 문제죠...
25/01/28 14:55
국내 1등은 LG 엑사온 3.0과 3.5 버전입니다. 다들 잘못 알고 계신 정보가 있는데 카카오는 AI 연구개발을 하는 회사가 아닙니다. 카카오는 기술력이 없다고 보면 되고요 네이버가 논문 실적은 좋은 편인데 실제 클로바 x 서비스랑 벤치 마크 성능이 언론플레이 치고는 너무 않좋습니다. 실제 LG가 큰 모델이 아니라 10B 급 모델급에서 해외 모델과 유일하게 경쟁할 수 있는 모델이긴 합니다.(큰 모델은 지금도 못하고 있는데 3.0 부터 경량화 급은 음력(?)에 의해서 생각보다 잘해서 놀랬습니다.). 그외 회사들도 많은데 국내에서 그나마 경쟁력 있는 모델은 엑사온 3.0과 3.5 only라고 보면 됩니다. 네이버는 무슨 이유인지 몰라서 실제 모델이 생각보다 성능이 안나오는 회사라 자금도 문제지만 내부적인 모델링 능력이 부족해 보이네요. 가끔 보면 네이버 모델은 잘 못만드는데 계속 경량화쪽 얘기하고 소버린 AI만 홍보하고 있는데, 네이버는 외산 모델과 비교는 넘사겠고 국내 1등이라고 해야 하는데 계속 실망스러운 행보입니다.
25/01/28 10:54
오픈소스로 풀린지 벌써 며칠 지났는데 아직 벤치나 성능에 대한 의구심은 별로 안 나오는 거 보면 성능은 거의 찐인 것 같습니다. 개발비용이 얼마나 과장이냐 문제인데 이것도 방법을 다 공개해버려서 중국애들은 못믿어~ 는 안 통하고 시간 좀 지나면 누군가 재현해서 기다 아니다 나올 문제입니다. 이걸로 중국이 앞서갈 수는 없는데 확실하게 밝혀진 점은 미국이 반발자국도 앞서지 않았다는 사실인 것 같습니다.
25/01/28 10:57
딥시크 r1 이외에도 kimi k1.5, 두바오 1.5 프로 같이 o1급이라고 주장하는 모델들이 줄줄이 나오더군요. 확실히 중국 AI 업계 무섭습니다. 물론 키미는 써보니까 내수용이라 그런지 한국어가 깨져서 딥시크만 못합니다만.
저같은 일반인 입장에서 딥시크의 의의는 추론+검색 모델의 보편화 정도일까요. 얼마 전에 글도 썼지만 딥시크 맛들리고나선 다른 검색AI는 쓰지도 않고 있습니다. 추론 검색이 사기에요 진짜. 요즘은 트래픽 몰려서 못쓰는 일이 더 많아서 아쉽습니다. 다른 AI 회사도 추론 검색 저렴하게 풀면 넘어갈 생각 있습니다.
25/01/28 11:00
오픈소스로 풀었는데 중국산이라고 의심부터 하는건 올바른 접근 방법은 아닌거 같구요.
적용한 아이디어들도 저는 너무 좋은 접근 방법 같더군요. 이제 풀린 오픈소스를 가지고 여러가지 변형 모델들과 논문들이 쏟아질텐데.. 어쩌면 온디바이스 AI로 가는 좋은 변곡점이 될 수도 있을거 같습니다.
25/01/28 11:05
딥시크가 오히려 AI 를 이용할 수 있는 기업들이 좋아질 거라는 전망이 있죠.
우리나라 같은 AI 후발주자에게는 오히려 기회가 될 수 있는 좋은 소식인 것 같습니다.
25/01/28 11:36
1. chatGPT 보다 매우 싸고 성능까지 좋은 AI 인 딥시크가 중국에서 나왔다.
2. 미국 빅테크들 그 많은 돈 써서 도대체 뭐했냐? 3. 그럼 엔비디아 칩 안팔리는거 아냐? 4. 엔비디아 주가 폭락 결론 : 그래픽 카드 가격은 내려가지 않음
25/01/28 11:35
딥시크를 이해하는데 도움이 될만한 글이 있어 공유드립니다.
------------- Dropbox의 AI 부사장 Morgan Brown 설명 1/ 먼저 배경부터 설명하겠습니다. 현재 최첨단 AI 모델을 훈련시키는 비용은 엄청나게 비쌉니다. OpenAI, Anthropic 같은 회사들은 계산에만 1억 달러 이상을 쓰며, $4만짜리 GPU 수천 대가 필요한 대규모 데이터 센터를 운영합니다. 마치 공장을 운영하기 위해 발전소 전체가 필요한 상황과 같습니다. 2/ 그런데 DeepSeek이 나타나서 이렇게 말했습니다. “LOL, 우리라면 이걸 500만 달러로 할 수 있을걸?” 그리고 말로만 한 것이 아니라 실제로 해냈습니다. 그들의 모델은 GPT-4와 Claude를 많은 작업에서 능가하거나 대등합니다. AI 업계는 (요즘 10대들이 말하듯) ‘충격’을 받았습니다. 3/ 어떻게 가능했을까요? 그들은 모든 것을 처음부터 다시 생각했습니다. 전통적인 AI는 마치 모든 숫자를 소수점 32자리까지 기록하는 것과 같습니다. DeepSeek은 “8자리로만 기록하면 어떨까? 충분히 정확하잖아!”라고 접근했고, 결과적으로 메모리 사용량이 75% 감소했습니다. 4/ 그리고 그들의 “멀티 토큰” 시스템도 주목할 만합니다. 일반적인 AI는 초등학생이 읽듯이 “The… cat… sat…”처럼 읽습니다. 반면, DeepSeek은 문장 전체를 한 번에 읽습니다. 결과적으로 2배 더 빠르고 90% 수준의 정확도를 자랑합니다. 수십억 개의 단어를 처리할 때, 이런 효율성은 매우 중요합니다. 5/ 하지만 진짜 기발한 점은 “전문가 시스템”을 구축했다는 것입니다. 한 거대한 AI가 모든 것을 다 알도록 만드는 대신(예: 한 사람이 의사, 변호사, 엔지니어 역할을 모두 하는 것처럼), DeepSeek은 필요한 경우에만 전문가들을 호출하도록 설계했습니다. 6/ 기존 모델은 1.8조 개의 파라미터가 항상 활성화되어야 합니다. DeepSeek은 6710억 개의 파라미터 중 단지 370억 개만 활성화됩니다. 마치 큰 팀을 운영하되 필요한 전문가만 호출하는 것과 같습니다. 7/ 결과는 놀랍습니다: • 훈련 비용: 1억 달러 → 500만 달러 • 필요한 GPU 수: 100,000대 → 2,000대 • API 비용: 95% 절감 • 데이터 센터 하드웨어 대신 게이밍 GPU에서도 실행 가능 8/ “그런데,” 누군가 말할 수 있습니다. “분명 단점이 있겠지!” 놀라운 점은, 모든 것이 오픈 소스라는 것입니다. 누구나 그들의 작업을 검증할 수 있습니다. 코드는 공개되어 있고, 기술 논문은 모든 과정을 설명합니다. 마법이 아니라, 단순히 매우 영리한 엔지니어링입니다. 9/ 왜 중요한가요? 이로 인해 “대형 기술 기업만이 AI를 다룰 수 있다”는 기존의 모델이 깨졌습니다. 이제 수십억 달러 규모의 데이터 센터가 필요하지 않습니다. 좋은 GPU 몇 대만 있으면 됩니다. 10/ Nvidia에게는 두려운 이야기입니다. 그들의 비즈니스 모델은 초고가 GPU를 90% 마진으로 판매하는 데 기반을 두고 있습니다. 하지만 모두가 일반 게이밍 GPU로 AI를 돌릴 수 있게 된다면… 문제는 명확합니다. 11/ 그리고 중요한 점은 DeepSeek이 이를 200명 이하의 팀으로 해냈다는 것입니다. 한편 Meta의 팀은 DeepSeek 전체 훈련 예산보다 더 많은 연봉을 받으며 작업을 하고 있지만, 그들의 모델은 DeepSeek만큼 좋지 않습니다. 12/ 이는 전형적인 파괴적 혁신의 이야기입니다. 기존 기업들은 기존 프로세스를 최적화하는 데 초점을 맞추는 반면, 파괴적인 혁신 기업들은 근본적인 접근 방식을 다시 생각합니다. DeepSeek은 “더 많은 하드웨어를 투입하기보다 더 똑똑하게 접근하면 어떨까?”라고 물었습니다. 13/ 그 영향은 큽니다: • AI 개발이 더 접근 가능해짐 • 경쟁이 급격히 증가 • 대형 기술 기업들의 “진입 장벽”이 작은 웅덩이처럼 보임 • 하드웨어 요구 사항(및 비용)이 급감 14/ 물론, OpenAI와 Anthropic 같은 대기업들이 가만히 있지는 않을 것입니다. 그들은 아마도 이미 이러한 혁신을 구현하고 있을 것입니다. 그러나 효율성의 램프는 이제 병 밖으로 나왔으며, “더 많은 GPU를 투입하자”라는 접근 방식으로 돌아갈 수는 없습니다. 15/ 마지막 생각: 이 순간은 우리가 나중에 변곡점으로 기억할 가능성이 높습니다. 마치 PC가 메인프레임을 덜 중요하게 만들거나, 클라우드 컴퓨팅이 모든 것을 바꿨던 것처럼요. AI는 더 접근 가능하고, 훨씬 저렴해질 것입니다. 이 변화가 현재 플레이어들에게 어떤 영향을 미칠지는 속도의 문제일 뿐입니다.
25/01/28 11:52
미국 빅테크들의 무지성 쓸어담기로 엔비디아의 매출/영업이익이 미친듯이 폭등중이었는데 당분간 여기에 브레이크가 걸릴수밖에 없으니까요.
AGI 는 딥시크 방식으로 힘들다는 결론이라도 나오면 다시 출발하겠지만 당분간은 조정의 시간이 필요하겠죠.
25/01/28 13:38
지금보다 전망이 나빠보입니다. 충격적인 마진율을 더이상 기록하진 못할거라서요.
저도 테크기업 종사하는 지인에게 들었을때, 엔비디아가 무슨 시장바닥에서 경매치듯이 가격을 훅훅 올리더라고....
25/01/28 11:56
뭐 당장 그렇게까지 쓸 생각은 없어서.. 어차피 뭐 더 좋은것도 조만간 나오지 않을까 싶기도 하고 일단 써서 이것저것 물어봤을 뿐입니다
일단 써치만 켜도 나아지기는 하던데 그냥 순수한 상태에선 그런걸 걸어놨구나 하는 감상. 의도가 들어간게 보이긴 하니.
25/01/28 12:08
지금 기사 나오는 거 보면 단순히 딥시크가 쌀 뿐만 아니라, 그걸 오픈소스 챗에서 더 용량 적게 굴릴 수 있게 만들었다는 이야기가 나오는 게 더 놀랍습니다.
즉 AI 시장이 거대기업들의 전유물이 아니라 보다 폭넓게 접근 가능한 방향이 되었다는 거죠. 실제로 굴려보니 무료버전 ChatGPT보다 훨씬 낫더군요..
25/01/28 12:25
트럼프당선되고 여태 투자했던거 다 팔았는데
관망 좀 하다가 다시 시작해야겠네요 버핏형님도 현금보유량 사상최대라는데 조정 함 오겠죠? 그동안 많이 올랐으니
25/01/28 12:26
가격이 싸지면 더 강력한 하드웨어로 더 큰 모델을 돌릴 수 있다는 점에서 장기적으로는 악재가 될수는 없을 것 같긴한데
문제는 더 강력한 학습을 위해서는 더 강력한 하드웨어와 전력소비가 단조증가적으로 필요하다는 게 지금까지의 믿음이었는데 이게 처음으로 깨졌고 소프트웨어적으로 우회할 수 있는 방법이 있고 이게 다가 아니라는게 입증이 된다면 절대적인 하드웨어 수요는 지금처럼 유지될 수는 없는거겠죠 그래서 엔비디아의 주가는 단기적으로는 하향할 수밖에 없고 다만 AI를 개발하는 빅테크들은 새로운 동력이 하나 더 생긴 정도로 봅니다 오히려 하드웨어 비용을 줄일 수도 있고, 개인적으로도 AI 학습에 필요한 전력이나 탄소배출이 심각했다는 점에서 긍정적으로 보고 있습니다
25/01/28 12:27
딥시크가 정말 사실이 되어버리면 진짜 지금 중국 대비 과 투자된 미국 현지 AI들은 난리 나지 않을까 싶네요. 거액 투자자들부터 어디서 수습해야 할지..조를 쓰고 있는데 100억은 말도 안되는거죠 진짜..
25/01/28 12:28
저는 오히려 어차피 딥시크 R1(Chatgpt o1 수준)에서 만족하지 않을테니 그렇다면 더 많은 그래픽카드를 쓰면 성능이 더 좋지 않을까로 귀결한다고 생각했는데 생각이 다들 생각이 좀 다르군요
25/01/28 12:32
장기적으로는 저도 그렇게 생각합니다. 근데 여하튼 너희는 그 돈 받고 왜 이렇게 못했냐는 문제의식과 질타를 당분간 받을것 같긴 합니다 크크
25/01/28 12:39
돈을 쓰는 거에 비례해서 성능이 안느니까 문제죠
엔비디아 ai칩 가격이 진짜 말도 안되는데 그거 늘리는 것보다 알고리즘이니 학습방법 같은 걸로 싸게 혁신할 수 있고 그게 더 개선폭이 높으면 수조 수십조 들여서 무리하게 엔비디아칩 싹쓸이 할 필요 없어지는 거니까요.
25/01/28 12:52
개인적으로는 구조개선에 걸릴 시간 > 우선 하드웨어 때려박아서 성능 높여보는 시간이라고 생각해서 앞으로 성능을 더 높인다면 하드웨어가 부족해질일은 없을 것 같다라는 생각이 들었습니다. 일단 돈이 있는 회사들은 경쟁에서 앞서나갈 가장 쉬운 방법이 더 많은 하드웨어일테니까요.
25/01/28 16:50
사실 그런 반면에 엔비디아 시스템을 구매 할 재원이 밑받침이 안 되거나 경제 제제로 아예 구할 수 없는 경우라면 (사실은 이런 경우가 압도적으로 많겠지만) 혁신적인 알고리즘 외에는 방법이 없는 것이겠죠.
25/01/28 17:41
저도 비슷하게 생각합니다. 다만 제가 하고 싶었던 말은 그래픽카드가 지금 사람들의 우려만큼 안팔리거나 하지는 않을 것 같습니다. 오히려 더 팔릴 수도 있다고 생각이 들고요.
25/01/28 12:34
딥시크 정도 성능이면 각종 게시판에 뻘글 관리하는 비용 모두 AI로 대체할 수 있겠죠. 대부분의 사람보다 수학, 과학, 언어, 추론에서 낫습니다. 대중의 수준을 중학생 이하의 수준이라고 봐야하는 현대사회에서 딥시크정도면 훌륭하죠. 써보면 빠르고, 논리적입니다. chatgpt나 claude와 품질 차이는 못 느끼겠습니다. llama는 두개보다 부족해 보이는데, 딥시크는 llama를 베이스로한 모델을 써봐도 추론으로 정제해서 그런지 답변이 괜찮더군요.
25/01/28 12:43
우리 나라가 미래 산업에 점점 뒤쳐져 가는 게 아닌가 싶습니다. 제조업도 중국에 밀리고... AI도 현재 딱히 내세울게 없고, 이전엔 그래도 정부 주도하에 적절한 시기에 제조업. IT산업 육성에 과감하게 투자했었고. 각 대기업 수장들도 도덕적인 부분은 차치하고서 라도 나름 추진력과 과감함을 가지고 있었는데 .. 함량 미달의 2세,3세들이 자리바꿈 하면서 급격하게 쇠락하는 모양새네요.
25/01/29 07:29
검열능력을 조금 희생했는데 계속 그렇게 될지는 모르겠네요 허허.. (스카이넷 빼고) 진정 유재시거를 실천할 수 있다면 제3의 웅비도 기대할 수 있지 않을까 합니다.
25/01/28 13:03
사실 몇년전부터 중국의 ai 발전은 엄청났죠. 서구권이나 한국에서 중국을 인정 못한거죠.
미국 블라인드에서 나온글을 보면 메타 ai그룹이 패닉상태라네요. 그동안 너무 과투자를 했던 상태라 다른 ai 관련 테크기업들도 비슷하지 않을까 싶네요.
25/01/28 13:53
대단한 성과죠. 덕분에 제 현대전자 주식이 죽을거란 점만 빼면 ㅜㅜ 하필이면 설연휴 낀데다, 어제 장 쉬는 바람에 금요일날 몰아서 처 맞을텐데 벌써 두렵습니다. 어제 열었으면 현대전자 자체는 긍정적으로 보는지라 다는 아니지만 소나기는 피해야허니 왕창 팔았을긴디
25/01/28 14:05
저는 AI 열심히 개발해주시면 주워먹는 업종이기는 한데..
요약해보면 그동안은 GPT 계열이 더, 더, 더 많은 GPU를 돌리고 학습을 시키는 것이 성능 향상의 왕도라고 여겨졌고 그 때문에 엔비디아와 GPU가 미친듯이 떴으나, DeepSeek가 엔지니어링과 모델링의 관점에서 적은 GPU로 비슷한 결과를 낼 수 있다는 걸 보여주기 시작했고, 이제 다시 모델을 어떻게 더 효율적으로 굴릴 것인지에 대한 논의와 하드웨어의 확장이 동시에 진행될거다.. 정도로 이해하면 되려나요?
25/01/28 14:06
단적으로 말하면 매개변수 규모를 대폭 낮추고도 LLM 성능에서 유사한 수준이란 건데 분명 다양한 가능성을 열었다는 점에서 획기적이지만 도달하고자 하는 목표가 LLM이 아니라 AGI, ASI 이라면 기존의 접근방식도 여전히 유효할수도 있을듯 하네요
25/01/28 14:32
진짜 말그대로 파괴적혁신이라 앞으로 AI는 미국이 독주한다는 페러다임 자체가 변해버릴것 같습니다
다만이제 확실한 실체가 존재하는 경쟁자가 생겨서 발전 윤리를 무시하고 기술개발이 시작될 것같아 두렵네요
25/01/28 14:46
요새 트위터에서 미국인들 사이에 화제가 되고 있는데요. 강화학습에 혁신이 있었고, 비용이 너무 저렴해졌고, 고사양 PC에서도 돌아가며, 중국이라 경계심도 들지만, 오픈소스인게 고맙고, 사고과정을 볼 수 있어 놀랍다. 이런 정도로 요약할 수 있을 듯합니다. 한편 수요와 주가에 관련하여, 제본스의 역설을 이야기하는 분들이 계시더군요.
'제본스의 역설(Jevon's Paradox)은 기술이 발달해 자원 사용 효율이 높아질수록 오히려 그 자원의 총소비량이 늘어나는 현상을 말합니다. 19세기 영국의 경제학자 윌리엄 스탠리 제본스가 석탄 소비 사례에서 처음 설명하면서 주목받았으며, 에너지나 자원 관리 정책에서 중요한 문제로 다뤄지고 있습니다.' — ChatGPT o1 만약 제본스의 역설이 지금 이 경우에 적용된다면, 시점은 모르겠지만, 엔비디아 주가는 잠시 내렸다가, 더욱 오를 거라 생각합니다. 반도체 수요도 더 많아질 수 있겠고요. 네이버도 이제 과감히 투자할 때가 아닐까 싶습니다. 전에는 너무 거대한 자본으로만 가능했다면, 이제 그보다 적은 규모로, 우리나라 대기업도 감당할 수 있는 자본 규모로도, 최고 성능에 근접한 걸 만들어낼 수 있다는 의미가 된 거라 봅니다. 그건 거꾸로 말해서, 경쟁사들이 이걸 할 테니, 안 하면 국제경쟁에서 도태된다는 의미가 될 것입니다.
25/01/28 15:13
적은 용량에 고사양 하드웨어에서 어느정도 벗어날 수 있게되어서 앞으로 2년이내에 하이엔드급부터지만 손에 들고 다니는 스마트폰에도 탑재되기 시작할거고, 다시 하이엔드 디바이스 붐이 불지도 모른다는 전망도 있더군요.
25/01/28 15:51
적은 리소스를 사용하고도 몇가지 효율적인 방법을 잘 사용해서 비슷한 성능까지 만들었다.. 라면
그리고 그 방식이 오픈으로 공개된 상태면.. 돈 때려박는 미국 회사들에서 비슷한 방식을 사용하면 더 말도 안되는 녀석이 튀어나오는 거 아닌가요..?
25/01/28 17:58
저는 왜 이 정도 혁신을 오픈소스로 풀었는지 그게 궁금합니다. 네이버 AI 최고책임자가 딥시크 쓸 때는 조심해서 쓰라는 글도 썼던데 말이죠.
25/01/28 18:27
일반 AI 사용자로서 이거 AI스피커나 홈서비스 로봇에 들어가면 대단하겠다는 생각을 많이 하는데요,
가격이 싸진다면 현실화 될 수 있겠다는 생각에 기대되네요.
25/01/28 19:52
AI 거품론이 있었는데 거품이 확 빠져버렸네요. 잘 된거죠.
비용이 100분의 1로 줄어들었으니 순식간에 100배 성능향상 된거고. 특이점이 코앞에 다가온듯 합니다. AI 와 로봇이 대체하면 미국도 제조업을 중국에서 다시 본국으로 가져올수 있죠. 한국도 그렇게 될거고요. 중국 황금기가 빨리 저물수도 있겠군요.
25/01/28 21:39
어제 한번 써봤는데, 창작이나 비평, 법리적, 행정적 분석쪽은 클로드소넷 3.0에 많이 뒤지는 느낌입니다.
또 개떡 같이 말해도 찰떡 같이 알아듣거나 이전 대화 문맥에 맞춰서 계속 대화를 이어가는 능력도 아직 살짝 부족하고요. 다만 클로드 오푸스 3.0이나 제미니 2.0에 비해서는 확실히 나은 느낌이었습니다. 놀랍습니다.
|