본문 바로가기

AI

(25)
[ LLM/멀티헤드&MLP ] LLM 어떻게 사용자의 질문을 이해하고 답할까? 이 내용은 3blue1Brown 채널을 만든 사람이 나와서 발표한 내용을 바탕으로 구성했봤다.특히 내가 좀 헷갈리는 부분을 조금 더 시각적으로 처리하기 위해서 작성해본다.https://www.youtube.com/watch?v=KJtZARuO3JY 이 개념은 Layer Block에 대한 개념을 크게 2 부분으로 나눠서 설명한다.- Multi-Header Attetion- Multi-Layer Perceptron 문맥을 이해하는 멀티헤더LLM은 사용자로부터 질의를 받는다.그리고 질의를 파싱하고 토큰화하고 임베딩 처리(벡터화 처리)를 한다. 이 과정에서 LLM은 attention block을 통해서 사용자에 문장의 문맥을 더 깊게 이해한다. 쿼리(Q), 키(K), 값(V)공식도 있지만 그것 패스(pass)..
[ AI/Multi ]Multi-Agent의 큰 흐름 2가지 아래의 글은 2가지 논문을 바탕으로 개인적인 통찰력 활용해본 글이다. Multi-Agent Collaboration Mechanisms: A Survey of LLMsWith recent advances in Large Language Models (LLMs), Agentic AI has become phenomenal in real-world applications, moving toward multiple LLM-based agents to perceive, learn, reason, and act collaboratively. These LLM-based Multi-Agent Systems (MASs) enablarxiv.org MetaGPT: Meta Programming for A Mult..
[ AI/antropic-2 ] LLM은 어떻게 시(詩)를 쓸까?(feat. Claude 3.5 Haiku) A rhyming couplet:He saw a carrot and had to grab it,His hunger was like a starving rabbit 순수 즉흥 창작 - 모델이 각 행의 끝에서 운율을 맞춰야 한다는 필요성을 고려하지 않고 각 행의 시작 부분을 쓸 수 있습니다. 그런 다음 각 행의 마지막 단어에서 (1) 방금 쓴 행에 맞게 의미가 통하고 (2) 운율 체계에 맞는 단어를 선택합니다.계획적 창작 - 또는 모델이 더 정교한 전략을 추구할 수 있습니다. 각 행의 시작에서 운율 체계와 이전 행들의 내용을 고려하여 행의 끝에 사용할 계획인 단어를 생각해낼 수 있습니다. 그런 다음 이 "계획된 단어"를 활용하여 다음 행을 어떻게 쓸지 결정하고, 계획된 단어가 행의 끝에 자연스럽게 들어맞도..
[ AI/LLM ]NoteBookLM 어떻게 작동하는가?(Basic) NoteBookLM이 앱을 출시 됐다.많은 사람들이 이목을 집중시켰다. 개인적으로 그 이유는 아마도 텍스트 형식의 LLM시대에서 오디오 시대의 전환을 말했기 때문이라 생각한다.다시 말해, Modality가 변화한것이다. 어떻게 작동하는 것일까?텍스트 생성 → RVQ 기반 오디오 모듈 호출 → 최종 오디오 출력 텍스트 생성현재 Google은 이미지 Gemini가 존재한다.Gemini는 다른OpenAi, Antropic처럼 decode-only transformer이다.현재 기준 Gemini flash 2.5를 사용할 것이다.출처 :https://9to5google.com/2025/05/02/notebooklm-gemini-2-5-flash/ RVQ 기반 오디오 모듈(?)RVQ핵심 아이디어는 여러 코..
[ AI/antropic-1 ] LLM은 다중 추론을 진짜 할까?(feat. Claude 3.5 Haiku) 이 글은 antropic에서 시도했던 모델에 블랙박스를 확인하기 위한 전략 중 다중 추론에 대한 검증글입니다. Introductory Example: Multi-step Reasoning On the Biology of a Large Language ModelWe investigate the internal mechanisms used by Claude 3.5 Haiku — Anthropic's lightweight production model — in a variety of contexts, using our circuit tracing methodology.transformer-circuits.pub 모델은 실제로 추론을 할까? 암기한 데이터를 갖져올까?선행 연구에서 모델이 추론을 직접..
[ AI/MCP ] web 방식 figma로 MCP 시도해 보기 너무 핫해서 안 해볼 수 없었던, 그러나 시간이 없었던 figma MCP를 시도해 보기. 나름 많은 삽질을 했다. 하여 APP으로 하는 방식 말고 web을 통해서 하는 방식으로 설명해 보려고 한다.사전에 알아둬야 할 내용figma MCP는 크게(?) 2가지 방식있는 것으로 확인했다.1) web figma를 통해서2) figma Application을 다운 받아서(youtube에 많이 있으니 검색해 보길 바란다.) 여기서는 web figma를 통해서 진행한다. MCP에 대한 간단한 설명claude MCP는 하나의 application 에 하나의 서버가 연결된다.다만 claude Protocol을 만들어 통신 방식으로 획일화 시키고 있다. 현재 완전한 http같은 protocol은 아니지만 아마도 claud..
[ LLM/RAG ] Graph RAG와 Basic RAG의 차이점 업계가 변경되고 나서 LLM or sLLM에 대해서 공부를 더 하게 된다.내가 있는 곳은 현재 RAG를 통한 콘텐츠의 생산성의 정확도를 높이기 위한 전략을 취한다.물론 환각 최소화 방안이기도 하다. 아래의 내용은 2개의 논문을 바탕으로 나름대로 내용을 각색해봤다.GRAG: Graph Retrieval-Augmented GenerationRetrieval-Augmented Generation for Knowledge-Intensive NLP Tasks※ 이 글에서 Basic RAG는 작성자가 임의로 작성한 글임을 알린다. 이번 2025 코엑스 Generative LLM/sLLM에서도 모두가 RAG를 언급한다.한국에서는 아쉽게도 하나의 창만 있다.나는 개발자는 아니다. 그냥 Dream or Viewer or..
[ LLMs ] 나는 누구인가? 곧 자기에 장점이 나다.(feat. Grok, Chat GPT, Claude, Perplexity, Gemini) 이번엔 회사별(?) 자기가 잘한다고 생각되는 것을 추려 보려고 한다.이 정보는 2025년 4월 1일 결과값을 갖고 작성한 글이다.이 글은 '자신이 무엇을 검색할 것인가'에 따라 어떤 LLM을 사용하는게 좋을지에 대한 글이다. 한계- 5개의 회사에게 동일한 질문을 하고 LLM에게 얻는 정보이다.- 몇 개의 회사는 무료버전을 사용했다. ex) Chat GPT-o4- 5개의 회사 기준은 개인의 취향으로 선택됐다.   인트로세상엔 점점 많은 LLM회사들이 나오고 있다.선택의 역설처럼 선택지가 많아지면 사람들은 선택이 힘들다.하여, 메이저 회사의 LLM의 특징을 알아보고 비교해 보려고 한다. 본론아래의 표는 6개의 기준점으로 언어별 장점을 추출해여 특징들을 그래프화 한 것이다.결국, 자신이 가진 특징(자원의 장점..
[ AI/애착 ] 우리는 AI와 친구가 될 수 있을까? (Feat.Open AI) MIT Media Lab과 OpenAI는 ChatGPT와 같은 AI 챗봇과의 상호작용 실험.사용자의 사회적, 정서적 웰빙(정신 건강)에 미치는 영향을 파악하기 조사 진행했다.관찰 연구 (Study 1): 실제 ChatGPT 사용 패턴 분석 (약 4천만 건의 대화)통제된 개입 연구 (Study 2): 1,000명의 참가자를 대상으로 4주 동안 ChatGPT 사용 실험 (랜덤화 대조군 연구) 한계점:- 결과는 아직 과학계의 동료평가를 받지 않았음- ChatGPT 사용자를 대상으로 했기 때문에 다른 챗봇 사용자와는 경험이 다를 수 있음.- 일부 결과는 인과관계를 명확히 보여주지 못함.- 자가 보고 데이터는 사용자의 실제 감정을 정확히 반영하지 못할 수 있음.- 장기적인 연구가 필요함.- 영어, 미국 참여자로 ..
[ AI/LLM ]Post-training에 대해서 앞에서 Pre-training에 대해서 간략하게 알아 봤다.이제 사람처럼 말하는 말투와 더 완전한(?) 결과를 내기 위한 작업을 수행한다. Post-training은 실생활에 실용성을 높이는 작업 Post-training은 무엇일까?개인적인 생각으로는 사람 최적화이다.  카카오 tech blogPre-training 단계에서는 다음 단어를 예측하는 방식으로 다양한 “문서”들에 대해서 학습하기 때문에 사용자가 제시하는 명령을 “이해하고 수행”하는 데 필요한 능력은 부족한 경우가 많습니다. 따라서 모델이 사용자의 명령을 인식하고 적절히 반응할 수 있는 LLM을 만들기 위해서는 적절한 Post-training 과정을 거쳐야 합니다.https://tech.kakao.com/posts/662 LLM Post-Tr..
[ AI/LLM ] PRE-TRAINING을 간단히 알아보자 LLM은 기본적으로 2가지 방식으로 구성된다.PRE-TRANING 그리고 POST-TRAINING.먼저 PRE-TRANINING에 대해서 이해해보자. 요약하면 빅데이터를 활요해 확률에 기반 언어 예측률 높이는 것이 PRE-TRAINING이다.  순서1. 데이터 수집 및 전처리 (Data Collection and Preprocessing)2. 토큰화 (Tokenization)3. 신경망 학습 (Neural Network Training)4-1. 추론 (Inference)4-2. 결과물 : 베이스 모델 추론 (Base Model Inference) 1. 데이터 수집 및 전처리보통은 데이터 수집은 이미 된 정보를 가지고 다음에 진행을 한다.간단히 말해서 인터넷에 돌아다니는 "텍스트" 정보를 스크롤해 정보를 ..
[ AI /Chat ] Chat GPT의 다양한 기능을 사용해 보자 Chat GPT의 출현과 함께 너무나 빠르게 Chat GPT 서비스도 다양해지고 있다.하여 Deepseek 이후 변화된 간단하게 이해한 내용을 정리해 봤다. 뭔가 새롭게 시작한다면 '새로운 창'을 여세요!한 곳에서 계속 대화를 하면 안 된다. 왜냐하면 정보가 계속 누적되기 때문이다.과거의 데이터를 기반으로 계속 질문에 대한 답을 할 것이고 그것이 내가 원하는 답변의 질을 낮출것이다.이유는 간단하다.현재 이야기하고 있는 창에 정보가 누적되기 때문이다. 아래의 색상들은 토큰(token)이라고 볼수 있다.이렇게 대화를 할 수록 토큰들이 쌓이기 된다. 토큰은 뭘까?인터넷에서 긁어 모은 테스트 정보를 bit를 이용해서 byte로 변환시킨다.그리고 다시 8bit를 활용해서 256으로 정보를 변화시킨다.그것을 토큰..
[ AI / AWS ] 아마존 AWS 제공하는 재미있는 서비스 (Feat.PartyRock) 교육을 들으면서 가장 재미있었던 부분 한가지는 PartyRock AI 생성형 플랫폼이다. PartyRock은 Amazon Bedrock의 기초 모델을 사용하여 아이디어를 작동하는 PartyRock 앱으로 전환한다. 앱을 만들고 Backstage 페이지에 PartyRock 크레딧을 100% 사용했다고 표시될 때까지 실행할 수 있다.1. PartyRock 앱을 만들어 시작.2. 이것은 학습을 시작할 수 있는 시작점을 제공.3. 위젯이라고 불리는 UI 요소를 편집하여 앱을 빌드. AI 기반 위젯에는 3가지 유형이 있다.이미지 생성, 챗봇, 텍스트 생성. AI 기반 위젯을 편집하여 다른 위젯에 연결하고 출력을 변경할 수 있다.사용자 입력 위젯을 사용하면 AI 기반 위젯에 연결할 때 사용자가 출력을 변경할 수 있..
[ Article / AI ] AI는 어떻게 우리의 질문에 답할까? 채팅형 AI는 어떻게 우리의 질문에 답할까?그들은 진짜 지능을 가지고 있을까? 라는 질문에 답을 얻을 수 있을거 같은 또 하나의 증거 글이다. 현재 그들은 단지 통계에 불과한다. 다만 데이터가 너무 많으니 값이 잘 수렴하는 것이다. 의미의 관계는 점수에 의한 구분 “Animal, vegetable, object — the features can be anything that people think are useful for distinguishing concepts.” Then assign a numerical value to each feature in the list. The word “dog,” for example, would score high on “furry” but low on “metal..
[ Article / AI ] 인공지능에서 지능의 진실(Feat. synthetic intelligence) AI는 무서운 도구이다. 우리 삶의 많이 변화시킬 것이다. 특히, 우리의 직업 그래서 나는 AI에 대한 글을 모아서 최대한 읽을 수 있으면 읽으려고 한다. 두려움에 마주치고 준비하기 위해서이다.여기서 말하고 싶은 핵심 내용은 아마도 현재 AI라고 불리는 LLM기반 Chapt GPT는 '모방 게임' synthetic intelligence일 뿐이라고 말하고 있다. 즉 대량의 데이터로 모방해서 확률로 근사치에 대답하는 것이지 스스로 사유하고 사색하여 대답을 하는 것이 아니다. 라고 표현한다.사실 AI는 모방 모델이지 지능이 아니다.the cognitive sciences, philosophy, neuroscience, and so on. Other disciplines could act as vehicles..
[ article / AI ] 테드 창, 한국 방문 및 연설 from 한겨례 ※이 글은 한겨례 기사의 내용을 발취한 글입니다.https://www.hani.co.kr/arti/economy/it/1147113.html 전문을 읽어보시길 권한다.테드 창이 한국에 방문해 AI에 대한 추가 이야기를 했다.개인적으로 생각하긴 크게 2가지 포인트를 가지고 있다.1. 인공지능의 정의2. 인공지능이 하는 표현이란(예술이란) '의도'    1. 인공지능의 정의기술과 지능을 구분해, 기술은 작업을 얼마나 잘 수행하는가로, 지능은 새로운 기술을 얼마나 효율적으로 습득하는가로 규정한 과학자도 있습니다. 저는 이 정의가 훨씬 마음에 듭니다. 인간의 직관을 잘 반영하고 있기 때문입니다.기술 : 작업을 '얼마나 잘' 수행하는지 => 작업 수행 능력지능 : 새로운 기술을 얼마나 효율적으로 습득하는지 => ..
[article/AI] 테드 창 말하는 AI ―개인적 수준이 아닌 사회적 수준에서 재귀적인 발전이 기술 발전의 중요한 동력이라고 생각한다. 인공지능도 사람처럼 사회적 학습을 할 수 있을까? 사회를 이룬 인공지능이 자신들보다 더 나은 인공지능을 만들어낼 수도 있을까?“인공지능 프로그램 사이의 상호작용은 사람들 사이의 상호작용과 아무런 공통점이 없다. 인공지능은 도구일 뿐이다. 도구일 뿐인 인공지능을 결합해서 개선이 이루어진다면, 그것은 단순히 그 도구를 이용하는 인간의 우수성을 보여줄 뿐이다. 먼 미래에 인공지능 프로그램들이 정말 사람과 같아질 수도 있다. 하지만 그게 무슨 의미가 있을까? 우리는 이미 수십억명의 인간이 있는데 말이다. 우리가 사람들이 협력을 통해 만들어낼 수 있는 커다란 이점을 원한다면 우리는 이미 어떻게 할지 잘 알고 있는 셈이다..
[article/AI]Where is the A.I heading? Of course, there is the argument that new technology improves our standard of living in the long term, which makes up for the unemployment that it creates in the short term. This argument carried weight for much of the post-Industrial Revolution period, but it has lost its force in the past half century. In the United States, per-capita G.D.P. has almost doubled since 1980, while the median hous..
[Video/AI] 실리콘벨리 한기용 선생님의 실패 이야기 최근에 AI 글을 일고 2차 wave대한 고민을 하게 됐다. 이상하게 다른 곳에서(?) 나름의 좋은 해안을 얻었다. '내 직업만 위험한게 아니다. 모든 직업이 위험하다. 고로 지금이 가장 좋은 타임아닌가? 내가 원하는 것을 하기에'
[article/AI] 2번째 AI 물결은 비루틴적(non-routine)인 것들이 목표가 된다. 글의 내용은 현재 1의 물결은 이미 우리 삶에 많은 부분을 대체하고 있다고 하고 있다. 특히 루틴적이 일(a job)들이 대체되고 있다고 했다. 다만 2번째 물결은 비루틴적인 일들이 대체될 것이라고 했다. 예를들어, DB 설계, 글쓰기는 일, 그래픽 디자인 등 고소득일도 점점 AI에 대체될 것으로 예상했다. the second wave of AI adoption could impact non-routine tasks involving the creation of databases, copywriting and graphic design, However, the second wave of AI adoption could impact non-routine tasks involving the creation ..