본문 바로가기

AI

[ AI/DeepMind ] 세상밖으로 나온 Physical AI (Feat. Google DeepMind CEO)

산업혁명보다 10배 더 강한 것이 온다.

 

Gemini의 핵심을 이끄는 DeepMind CEO 데미스 하사비스 인터뷰 내용()

 

2026년 트렌드가 될 AI 산업은 아마도 세상밖으로 나온 Physical AI가 될 것이라고 한다.

위키피디아

 

 

AI 기술의 패러다임을 바꿀 핵심 전략으로 '월드 모델(World Models)' 

월드 모델은 단순히 데이터를 인식하는 것을 넘어, 현실 세계의 인과성을 학습하고 시뮬레이션한다.

하사비스가 지적하듯,
"세상의 공간적 역학에 관한 많은 것들은 말로 설명하기 어렵기" 때문에 언어 모델만으로는 세상의 작동 원리를 온전히 포착할 수 없습니다

Google DeepMind의 Genie와 같은 모델은 바로 이 지점을 파고들어, 비디오 데이터로부터 '직관적 물리 법칙'을 학습하고 사용자의 행동에 따라 세상이 어떻게 변할지를 예측

 

 

 

개인적으로 재미있었던 내용


환각

 

1. 환각에 대한 CEO의 설명: '불균형한 지능'

허사비스는 현재의 AI 시스템이 보여주는 환각과 오류를 '들쭉날쭉한 지능(jagged intelligences)'이라는 개념

일관성 부족: AI는 특정 분야(예: 국제 수학 올림피아드 문제)에서는 박사급 수준의 성능을 보이지만, 아주 기초적인 논리 문제나 고등학교 수준의 수학에서 실수를 범하는 등 성능이 매우 불균형합니다.

자기 인식의 부재: 모델이 답변을 거부해야 할 상황에서도 억지로 답변을 내놓으려 할 때 환각이 발생. 
즉, 자신이 무엇을 알고 무엇을 모르는지에 대한 확신도(confidence score)를 스스로 파악하지 못하는 것이 문제.

 

환각이 발생하는 논리적 이유

다음 토큰 예측의 한계:
현재 시스템은 기본적으로 다음 토큰(단어 조각)이 나올 확률에 기반해 작동.
이는 마치 사람이 깊게 생각하지 않고 머릿속에 떠오르는 첫 번째 생각을 즉각적으로 내뱉는 것과 비슷하여, 전체적인 사실관계에 대한 검토가 부족 가능.

인식 및 토큰화 오류:
때로는 모델이 단어의 개별 철자를 정확히 '보지' 못하는 등 데이터를 지각하고 토큰화하는 방식 자체에서 사소한 실수가 발생하여 논리적 오류.

사고 및 계획 단계의 부재:
알파고(AlphaGo)가 최선의 수를 찾기 위해 검색과 계획 과정을 거쳤던 것과 달리,
현재의 언어 모델은 이러한 추론 및 계획 단계를 시스템 위에 안정적으로 구축하는 초기 단계.

 

환각의 검증 및 해결 방안

  1. 확신도 점수 도입: 단백질 구조 예측 모델인 알파폴드(AlphaFold)처럼, AI가 자신의 답변에 대해 스스로 얼마나 확신하는지 신뢰도 점수를 제공하도록 만드는 것.
  2. 추론 시간(Inference time)의 활용: 모델이 답변을 내놓기 전 '생각'하는 시간을 갖게 하고, 그 시간 동안 도구를 사용해 자신의 출력을 이중 점검(double check)하게 함으로써 일관성 유지.
  3. 검증 가능한 데이터 활용: 수학이나 코딩처럼 정답을 명확히 확인할 수 있는 분야에서 합성 데이터(synthetic data)를 생성하고 검증함으로써 모델 학습.
  4. 물리적 벤치마크 구축: 특히 '월드 모델(World Models)'에서는 물리 법칙이 맞는지 검증하기 위해 게임 엔진 등을 활용한 '물리 벤치마크'를 만들어, 모델이 생성한 물리 현상이 단순히 그럴듯해 보이는 '환각'인지 아니면 실제 물리 법칙(예: 뉴턴의 운동 법칙)에 부합하는지 정밀하게 테스트.

 

 

결론

결국 환각에 대한 아직 적절한 확신도 점수에 아직 접근하지 못했다는 이야기와
물리적이든 계산 공식이든 추론에 대한 증가할 가능성이 열려있다는 뜻으로 해석된다.

 

 

 

 

ps-

현재는 인간의 에너지를 넣고 LLMs이 답변하는 것이지만
곧 LLMs 자율적으로 행동하게 되고 더 많은 사건과 창조가 일어날 것으로 예상