분류 전체보기 (352) 썸네일형 리스트형 [ AI/LLMs ] AI 연구의 세 가지 핵심: 메모리, 세계 모델, 추론 (Feat.Joelle Pineau) 조엘 피노(Joelle Pineau), Cohere 최고 AI 책임자https://en.wikipedia.org/wiki/Jo%C3%ABlle_Pineau 참조 영상 2017년 주의 집중이 필요한 전부다(Attention is all you need)였지만, 이제 우리는 지능을 구현하기 위해 그 이상의 것이 필요하다는 사실. 그녀는 말한다. 이제는 데이터 학습을 넘어 행동 결과를 예측하고 복합적인 계획을 세우는 역량이 핵심이다.메모리, 세계 모델, 추론 능력 메모리: 방대한 정보 속에서 필요한 것만 골라내는 능력그냥 메모리만 있으면 되는 것은 아니다.진정한 메모리 지능이란 수조 개의 데이터 속에서 현재의 예측과 추론을 위해 어떤 정보를 언제 꺼내 쓸지를 지능적으로 선택하는 능력이다. 핵심 요소 설명: .. [ AI/LLM] LLM을 많이 쓰면서 든 아이디어들 (feat.claude) 안드레가 최근 LLMs을 사용하고 쓴 글 andrej karpathy (https://en.wikipedia.org/wiki/Andrej_Karpathy) 그가 쓴 전문A few random notes from claude coding quite a bit last few weeks.Coding workflow. Given the latest lift in LLM coding capability, like many others I rapidly went from about 80% manual+autocomplete coding and 20% agents in November to 80% agent coding and 20% edits+touchups in December. i.e. I really am.. [ AI ] Agentic AI 1,2주차 (Feat.서울대 산업공학과 DSBA) 결론적 차이는 차선을 갖고 오는가? 정도로 요약 가능하다. 서울대 산업공학과 DSBA에서 2026년 Agentic AI에 대한 프렌젠테이션을 준비해서 공유하고 있다. 이것을 듣고 정리하면 다시 한번 전체적인 LLMs 시장과 정리를 복습하며 트렌드를 파악하고자 한다. AI agent는 Linear flow라는 말이 있듯이 단방향성을 갖고 잇다.문제 수행 그리고 결과를 출력한다.반면, Agentic AI는 다방향성이라는 것이다.문제가 생기는 거기서 문제 발생 끝이 아니라, 해결할 수 있는 다른 차선을 찾아본다는 것이다.하지만 가끔은 다른 요상한 정보를 가져오는 것도 있다는 것 Agentic AI의 핵심 : 인지적 구조(Congnitive Architecture)인지 - 기억 - 추론 - 행동 PBA(P.. [ AI/DVODA ] 사피엔스의 저자 Yuval Noah Harari (Feat.World Economic Forum 2026) 아마도 21세에 철학자이저 대단한 인사이트를 소유자라고 불리 수 있는 사람 유발 하라리 AI 대담AI를 만드는 회사의 대표나 CEO들은 대다수 하는 말이 낙관적이다. 그들은 앞으로의 미래가 빠르게 성장할 것이고 자신의 경제 뿐만 아니라 생산성 등이 빠르게 성장할 것니이 얼마나 좋은 세상이냐, 더 이상 일을 하지 않아도 된다고 말한다.또는 줄어든다고 한다. 그렇다면 그 반대 의견도 들어보고 싶지 않은가?유발 하라리가 꼭 반대의견을 갖고 있어서 들어본 것은 아니다.지금 살고 있는 시대에 가장 유명한 철학자(생각하는 사람)이기 때문에 그의 의견과 해석을 듣고 싶었다. 결론적으로 말해 그는 걱정이 많아 보인다.지금까지 어떠한 종(species)도 주체적(agentic)으로 뭔가 스스로 결정하고 행동하는 존.. [ AI/Deepseek ] Engram 조건부 메모리 사용 언어 모델링은 본질적으로 두 가지 질적으로 다른 과업, '구성적 추론(compositional reasoning)'과 '지식 검색(knowledge retrieval)'을 동시에 수행.구성적 추론: 새로운 문맥에서 논리적 관계를 파악하는 동적이고 깊은 연산을 요구지식 검색 : 고유 명사나 관용구와 같이 고정되고 정형화된 패턴을 인식하는 과업 이자료는 deepseek의 논문에서 발취한 자료이다. GitHub - deepseek-ai/Engram: Conditional Memory via Scalable Lookup: A New Axis of Sparsity for Large Language ModelsConditional Memory via Scalable Lookup: A New Axis of Spar.. [ AI/Memory ]MoE를 활용한 토큰과 비용 최적화(Feat. NVIDIA via President 이안) 다양한 전문가가 존재하는 모델 MoE(Mixture of Exports) MoE 모델의 가장 큰 장점은 전체 모델의 크기(총 뉴런 수)는 거대하게 유지하면서도, 실제 질문에 답할 때는 그중 일부 전문가만 활성화한다는 점입니다. 호퍼란?기존의 암페어(Ampere, A100) 아키텍처를 잇는 차세대 GPU 아키텍처로, 대표적인 제품은 NVIDIA H100입니다. 이 아키텍처는 단순히 연산 속도만 빨라진 것이 아니라, '트랜스포머(Transformer) 모델을 가속화하기 위해' 설계 단계부터 특화되었다는 점이 특징.호퍼는 미국의 컴퓨터 과학자 그레이스 호퍼(Grace Hopper)의 이름을 딴 NVIDIA의 GPU 아키텍처호퍼(Hopper)는 거대언어모델(LLM)을 위한 '물리적 엔진'입니다." LLM .. [ AI/DeepMind ] 세상밖으로 나온 Physical AI (Feat. Google DeepMind CEO) 산업혁명보다 10배 더 강한 것이 온다. Gemini의 핵심을 이끄는 DeepMind CEO 데미스 하사비스 인터뷰 내용() 2026년 트렌드가 될 AI 산업은 아마도 세상밖으로 나온 Physical AI가 될 것이라고 한다. AI 기술의 패러다임을 바꿀 핵심 전략으로 '월드 모델(World Models)' 월드 모델은 단순히 데이터를 인식하는 것을 넘어, 현실 세계의 인과성을 학습하고 시뮬레이션한다.하사비스가 지적하듯, "세상의 공간적 역학에 관한 많은 것들은 말로 설명하기 어렵기" 때문에 언어 모델만으로는 세상의 작동 원리를 온전히 포착할 수 없습니다Google DeepMind의 Genie와 같은 모델은 바로 이 지점을 파고들어, 비디오 데이터로부터 '직관적 물리 법칙'을 학습하고 사용자의 행동에 .. [ AI/LLM] AI는 우리가 하는 말을 이해하고 답변하는 것일까? AI의 답변은 거의 완벽에 가깝다. 그렇다면 그들은 우리의 말을 이해하고 답변하는 것 일까?결론 부터 말하면,그들은 우리의 말을 이해하는 것인 아니라 수많은 데이터를 학습을 바탕으로 다음 단어가 올 확률로 계산해 답변할 뿐이다.LLM의 결과물이 진실이나 실제 이해에 기반한 것이 아니라, 오직 '언어적 그럴듯함(linguistic plausibility)'에 근거한다는 점 출처: Epistemological Fault Lines Between Human and Artificial IntelligenceLarge language models (LLMs) are widely described as artificial intelligence, yet their epistemic profile diverges s.. [ ML/LLM ] 스케일링은 넘어 그것을 향해 (Feat.일리야 수츠케버) 일리야 수츠케버는 딥러닝 대가 제프린 힌터의 제자이며, 2015년 OpenAI를 공동 창립자이다.이번 영상에서 그는 이제 스케일링의 시대는 갔다고 말한다.이 영상에서는 현재 LLMs(여기서는 ML)이 어떻게 변화하고 있는 지 그리고 어디로 향하고 있는지를 간접적으로 느낄 수 있다.영상 :출처 : 스테이지5영상에는 많은 내용이 나오는 데 개인적으로 가장 인상적인 부분을 추려서 정리해 보았다. 새로운 시대로 진입 시작더 많은 데이터와 컴퓨팅 자원을 투입하면 성능이 향상될 것이라는 '스케일링 법칙'은 지난 몇 년간 AI 발전을 이끌어온 황금률이었지만, 이제 그 한계에 다다랐다는 것. 왜?데이터의 한계사전학습의 원동력이 었던 데이터는 이제 점점 고갈되어 가고 있다. 단순 컴퓨팅 자원을 100배로 늘린다고해서 .. [ AI/GPU ] AI의 현재 판도는 GPU,GPU (Feat. 구글 TPU) 과거 AI와 지금의 LLMs의 가장 큰 차이는 바로 병렬 구동일 것이다.과거 AI는 if else를 처리하면서 하나 씩 하나 씩 처리해 나가는데, 지금은 GPU 때문에 그러한 일련의 과정을 한 방에 처리할 수있게 됐다. [비즈톡톡] AI 시장 흔드는 구글 TPU에 대한 진실과 오해… “GPU 시장은 더 커진다”비즈톡톡 AI 시장 흔드는 구글 TPU에 대한 진실과 오해 GPU 시장은 더 커진다 구글 TPU 확대, 엔비디아 GPU 일부 대체 전문가 GPU 독점 붕괴 아냐 역할 분화 시작 HBM 수요는 증가 삼성전자·SK하이닉스biz.chosun.com 결론그렇다면 엔비디아의 GPU 독점 구도에 지각변동이 있을까요. 결론부터 말하면 전문가들은 당장은 불가능하다는 입장입니다. 우선 구글 제미나이3가 GPU .. [ AI/LLM ]Less is More: Recursive Reasoning with Tiny Networks(Feat. Samsung) HRM 2개의 층을 갖고 뇌와 유사한 모델의 새로운 길사람도 똑같다. 몇번의 문제를 동일하게 읽고 풀면 달라보일 때가 있다.특히 책을 읽을 때 많이 느낀다.'이 책에 이런 문장이 있었다고?'재귀적 추론(Recursive Reasoning) 동일한 문제에 계속적으로 반복 수행함으로써 높은 성과를 높인다. Less is More: Recursive Reasoning with Tiny NetworksLess is More: Recursive Reasoning with Tiny Networks Abstract Hierarchical Reasoning Model (HRM) is a novel approach using two small neural networks recursing at different fre.. [ AI/anthropic-4 ] 환각(feat. Claude 3.5 Haiku) 모델은 가끔 거짓말을 한다.그 이유는 당연하다. 왜냐하면 그는 그럴듯한 답변을 하는 확률모델이기 때문이다.모델은 사실 거짓말을 하지말라고 예방 장치가 존재한다.그럼에도 불구하고 거짓말을 하는 것은 질문에서 반은 알고 반은 모르기 때문에 알고 있다라는 버튼이 활성화되는 것이다.In this section we provide evidence that:The model contains “default” circuits that causes it to decline to answer questions.When a model is asked a question about something it knows, it activates a pool of features which inhibit this default c.. [ AI/MCP ] REFRAG: RAG 개인적으로 MCP는 아직도 LLMs에 가장 화두이다.LLMs 자체의 지식은 언제 업데이트 전까지 한계를 갖고 있기 때문이다.하지만 MCP를 활용해 외부에서 데이터를 갖고 올 경우 단순하게 외부대 데이터 99 : 내부 데이터 1로 분석을 시작하면 당연히 외부데이터 가중치가 많이 적용된다. 그런데 만약 필요한 데이터를 제거하고 거기다 속도까지 더 빨리 가져온다면?나아가 메모리에 한계가 있는데, 불필요한 데이터 덩어리가 함께 LLMs 전달된다면? 이번 논문에서는 기존 MCP의 기술적 한계를 바탕으로 데이터의 편집(?) 알고리즘을 변경함으로써,더 빠르고 더 효율적인 데이터 처리를 할 수 있다고 한다. "RAG 과정에서 일어나는 계산의 대부분은 사실 불필요하다."긴 컨텍스트 처리의 문제점긴 컨텍스트 입력은 LLM.. [ React/KaKao Map ] Marker 동기화 처리 비동기처리(의존성 배열)가 너무 안 잡혀서, promise 결국 리팩토링을 했다.LLMs가 React 철학을 들먹이며, 이건 promise로 처리할 수 없다.강경하게 진행했지만,결국 useEffect을 덕지 덕지 더불어 setTimeout을 붙여가면서 맞출려고 했으나결국, 이게 문제라면 그냥 promise로 하자고 하여 진행하였다. 문제 상황- 현상: 마커 클러스터가 표시되자마자 "반짝" 하고 사라짐 원인 분석1. useEffect 간 Race Conditionclusterer.clear()가 두 번 연속 호출되며 마커가 사라졌습니다.// ❌ 기존 코드useEffect(() => { clustererRef.current.clear() markersRef.current = teaHouses.ma.. [ AI/naver-map ]네이버 지도 API 404 오류 해결 기술 보고서 네이버 지도 API가 네이버 개발자 센터에서 네이버 클라우드 플랫폼으로 완전 이전되면서 발생한 404 오류를 분석하고 해결한 과정을 정리한 내용.다른 사람들도 네이버 지도 하다가 오류가 걸리거 같아서, 혹시나 하여 작성해본다.데이터가 여전히 과거 개발자 센터로 많이 있기 때문에 LLMs이 다 저쪽 데이터를 가져온다. 문제 상황초기 증상❌ Static Map API: 404 "URL not found"❌ Geocoding API: 404 "Not Found Exception" ❌ Reverse Geocoding API: 404 "URL not found"환경 정보Client ID: ✅ 정상 발급 및 설정Client Secret: ✅ 정상 발급 및 설정API 서비스: 네이버 클라우드 플랫폼 Maps API.. [ AI/DeepSeek-R1 ] AI가 스스로 생각하는 법을 배웠다고? 여러분이 수학 문제를 풀 때를 생각해보세요. 처음엔 선생님이 단계별로 풀이 과정을 보여주죠. "첫 번째로 이렇게 하고, 두 번째로 저렇게 해서..." 하지만 정말 수학을 잘하게 되려면 어떻게 해야 할까요? 바로 스스로 다양한 방법을 시도해보고, 틀려도 다시 도전하면서 자신만의 풀이법을 찾아가는 것이겠죠.최근 중국의 한 AI 회사가 만든 'DeepSeek-R1'이라는 인공지능이 바로 이런 방식으로 학습했다.그리고 그 연구 결과가 세계 최고 과학 저널인 Nature에 실리면서 전 세계가 주목하고 있다.기존 AI는 어떻게 배웠을까?지금까지 대부분의 AI는 마치 여러분이 모범답안을 그대로 따라 쓰는 것처럼 학습했다. 인간이 "이 문제는 이렇게 풀어야 해"라고 단계별로 보여준 수많은 예시를 보고 따라 배우는 거죠.. [ KakaoMap ] 카카오 맵 설치하는 방법 결론 부터 말씀 드리면 카카오맵도 등록만 하면 안 된다. 사용자 설정 활성화가 필요하다 카카오 맵 신청하기먼저 카카오 디벨로퍼 사이트로 들어간다.로그인을 한다.heaed에서 "앱" 을 클릭한다.+ 앱 생성을 눌러서 앱을 만든다. 앱 상세 보기이 카드를 눌러 들어가면 상세 정보를 볼 수 있다. API Key 확인하기왼쪽 매뉴를 상단에 대시보드 바로 아래 '앱'이 있다.이 앱키에서 API를 확인할 수 있다. 출력할 사이트 등록하기플랫폼 소제목을 가서 어디서 활용할 것인지를 등록해야 한다.나는 웹에서 사용하기 때문에, web을 눌러 등록했다. 아래처럼 팝업이 뜬다.로컬에서도 테스트를 할려면 로컬 정보도 넣어야 한다.이걸로 끝난줄 알고 계속 로컬에서 시도했는데, 안 됐다.나중에 카톡 개발자 알림을 보고 알았.. [ AI/anthropic-5 ] 의학분야에서의 모델 활용 모델에게 환자에 대한 정보가 제시하고진단과 치료에 도움이 될 후속 질문을 제안하도록 요청받는 예시 시나리오 연구 모델이 단어 매칭을 넘어선 개념이해 가능The model’s most likely completions are “visual disturbances,” and “proteinuria,” two key indicators of preeclampsia. 19 We noticed that the model activated a number of features that activate in contexts discussing preeclampsia and its associated symptoms. Some of these features, like the example below, activate.. [ UI/EduTech ] Bottom sheet or Centered Modal (Feat. 에듀테크 시 고민해볼 요소들) 사실 요즘 앱 UI를 많이 보고 있다. 그중 고민 요소는 많은 앱들이 Bottom sheet을 쓰는 것 같다 는 느낌이다.그래서 한 번 조사해봤다. Bottom sheet or Centered Modal물론, 누가 더 낫다고 할 수 없다. 왜냐하면 둘에 사용성이 다르기 때문이다.다만, 학습중이라는 상태라면 콘텐츠를 방해하지 않아야 하기 때문에 Bottom Sheet이 더 선호된다는 사실.A Bottom Sheet is better than a dialog/overlay(usually popup at the center).What’s special, however, of bottom sheets compared with other overlays is that they preserve substantial.. [ 글 ] 의견을 전달하기 위해 해보면 좋은 글 우리는 어디서든 관계를 맺고 살아가면서 자신의 의견을 전달하고 살아간다.특히, 회사같은 곳에서 자신의 의견을 전달할 땐 전달하는 내용이 논리적이여야 한다.논리적인 글이란 대체적으로 논증형을 이야기 해볼 수 있다.논증의 뜻이란?논증(論證)論 : 논의하다, 서술하다證 : 증거 증,옳고 그름을 이유를 들어 밝힘. 또는 그 근거나 이유 -네이버-어떤 판단이 참(眞)이란 것의 이유를 부여하거나 명확하게 보여줄 때 논증한다고 말한다. -위키피디아- 토론 책 '디베이터'에서 1부 토톤의 다섯가지 기술의 2장 논증 파트에는 이런 예문이 나온다.무엇을?왜? 언제?그게 왜 중요한가?책은 서보현이라는 한국계-오스트리안인 사람이 토론대회를 나가고 겪는 경험과토론으로 자신의 인생변화에 대한 글이다. 다시 돌아와서,핵심구조는 이.. 이전 1 2 3 4 ··· 18 다음