작성자 | NidasXPn | ||
---|---|---|---|
작성일 | 2025-02-01 11:35:38 KST | 조회 | 16 |
제목 |
오늘 딥시크랑 ChatGPT로 수학 해봄
|
딥시크 R1이랑 지피티4o 의 공통점이라면
Chain of Thought, 그러니까 사람이 추론하는 과정을 비스무리하게 따라가게 만들었다는 건데
이거 장점이 틀린 점이 있으면 왜 틀렸는지 볼 수가 있고, 자기 자신도 그걸 보다가 "아 이거 틀렸구나" 하고 알 수 있기 때문에 정확도가 올라감
그리고 기본적으로 LLM은 전부 "토큰"이라고 해서 기본적으로 단어나 이런 걸 저장할 때 하나 하나 저장하는 느낌이라
"I am a person" 은 "I', "am" , "a", "person" 다 하나 하나씩 저장함. 근데 이게 숫자에서 문제가 생기는 게
428568321 라는 숫자를 그냥 그대로 기억하는 게 아니라 토큰에 따라서 하나 하나 저장하기 때문에 "428" "568" "321"을 따로 따로 인식할 수가 있음.
즉, 여기서 딥시크 r1이랑 ChatGPT 4o 둘 다 단순 곱셈에서 실수하는 이유가 나오는데
15682* 12431를 그대로 받아들이는 게 아니라 "156""82" * "1243" "1" 따위로 받아들일 수가 있어서 문제가 생김
그래서 오늘은 한번 딥시크랑 ChatGPT로 곱셉을 시켜보자 했는데
놀랍게도 ChatGPT 4, 그러니까 한 일년 전에 나온 모델은 아무런 문제 없이 해결했는데 최근 버전인 딥시크 R1이랑 ChatGPT 4o는 곱셈을 조짐.
알고 보니 ChatGPT 4 에는 "Function Calling" (함수호출) 이라고 해서 기본에 저장 되있는 수식 등을 활용하게 할 수 있는데, 곱셈이나 이런 건 그냥 함수호출해서 처리해 버리면 되는데
최근 모델은 이게 아직 없으므로 그냥 자기가 토큰 가지고 알아서 계산 하려다가 실수함.
거기다가 말도 안되는 방식으로 토큰을 쪼개서 곱셈을 하려고 하니 25 자리수 x 25 자리수가 옛날 버전은 1초면 하는 걸 최근 버전은 5분동안 하고 있음.
즉 간단한 계산 같은 거 하실 거면 최근 모델 쓰지 마시고 옛날 모델 쓰세요.
© PlayXP Inc. All Rights Reserved.