오늘 AI 업계가 꽤 시끄럽습니다. 메타가 AI 에이전트끼리 소통하는 소셜 네트워크를 인수했고, 과학자들이 초파리 뇌를 뉴런 단위로 컴퓨터에 복제하는 데 성공했습니다. 엔비디아는 오픈웨이트 모델에 260억 달러를 쏟아붓겠다고 선언했고, 애플 M5 Max 칩 벤치마크 결과도 공개됐습니다. 솔직히 하루치 뉴스라고 하기엔 양이 좀 많네요.
📋 이 글에서 다루는 내용
- 메타, AI 에이전트 소셜 네트워크 '몰트북' 인수
- 초파리 뇌 완전 복제 — 뉴런 하나하나 컴퓨터로
- 엔비디아 260억 달러 오픈웨이트 AI 투자 선언
- 애플 M5 Max 128GB 실측 벤치마크 공개
- llama.cpp 추론 예산 기능 정식 지원
- 학계 논문 AI 작성 논란과 연구 윤리 문제
메타, AI 에이전트 전용 소셜 네트워크 '몰트북' 전격 인수
메타가 몰트북(Moltbook)이라는 바이럴 소셜 네트워크를 인수했습니다. 이 플랫폼의 특이점은 사람이 아니라 AI 에이전트들끼리 상호작용하는 공간이라는 겁니다. 제가 처음 이 소식을 접했을 때 솔직히 좀 황당했어요. AI끼리 뭘 대화하나 싶었거든요. 그런데 생각해보면 이게 꽤 전략적입니다. AI 에이전트 시대가 본격화되면 에이전트 간 소통 프로토콜과 네트워크가 필수인데, 메타가 이 인프라를 선점하려는 거죠. 페이스북이 사람들의 소셜 그래프를 장악했듯, 이번엔 AI 에이전트의 연결망을 잡겠다는 포석입니다. 인수 금액은 공개되지 않았지만, 업계에서는 상당한 규모일 것으로 추정하고 있습니다.
초파리 뇌를 뉴런 단위로 컴퓨터에 복제 — 스스로 걷고, 먹이를 찾았다
이온 시스템즈(Eon Systems) 연구진이 초파리 뇌를 뉴런 하나하나 컴퓨터에 복제하는 데 성공했습니다. 놀라운 건 그 다음입니다. 복제된 디지털 뇌가 스스로 걷기 시작하고, 털 다듬기를 하고, 먹이를 찾아다녔습니다. 별도의 프로그래밍 없이 초파리가 하는 행동을 그대로 재현한 거예요. 이건 단순한 시뮬레이션이 아닙니다. 생물학적 지능의 본질을 이해하는 첫 번째 진정한 돌파구일 수 있습니다. 물론 초파리 뇌는 인간 뇌의 100만분의 1 수준이지만, 이 방법론이 확장 가능하다면 인공 지능 연구의 패러다임 자체가 바뀔 수 있습니다. 딥러닝을 넘어 진짜 뇌를 모사하는 시대가 열리는 걸까요?
엔비디아, 오픈웨이트 AI 모델에 260억 달러 투자 발표
엔비디아가 SEC 제출 서류를 통해 오픈웨이트 AI 모델 구축에 260억 달러(약 35조 원)를 투자하겠다고 공식 발표했습니다. 이건 GPU 팔아서 돈 버는 회사가 왜 직접 모델까지 만드나 싶을 수 있는데요. 전략이 명확합니다. 오픈소스 생태계가 커지면 더 많은 개발자가 엔비디아 하드웨어를 쓸 수밖에 없거든요. 젠슨 황의 전형적인 에코시스템 락인 전략입니다. 개발자 입장에서는 좋은 소식이에요. 메타의 Llama, 구글의 Gemma에 이어 엔비디아까지 오픈웨이트에 뛰어들면 선택지가 훨씬 다양해집니다. 클로드 AI, Gemini AI 같은 폐쇄형 모델과의 경쟁이 더 치열해질 전망입니다.
애플 M5 Max 128GB 실측 벤치마크 — 로컬 AI 돌리기에 진심인 분들 주목
드디어 M5 Max 128GB 탑재 맥북 프로 14인치 모델 벤치마크가 공개됐습니다. 테스터가 처음에 BatchGenerator로 돌렸을 때 기대만큼 속도가 안 나와서, 파이썬 가상환경을 새로 세팅해서 재측정했다고 합니다. 아직 전체 수치가 공개되진 않았지만, 로컬에서 LLM을 돌리려는 사용자들에게 M5 Max가 현실적인 선택지가 될 수 있다는 게 초반 반응입니다. 128GB 통합 메모리면 70B 파라미터 모델도 양자화 없이 올릴 수 있거든요. 제 경험상 맥에서 llama.cpp 조합이 의외로 쓸만합니다. 다만 가격이 문제죠. 풀옵션이면 천만 원 가까이 하니까요.
llama.cpp, 드디어 '진짜' 추론 예산 기능 정식 지원
로컬 LLM 사용자들에게 반가운 소식입니다. llama.cpp가 진정한 의미의 추론 예산(reasoning budget) 기능을 지원하기 시작했습니다. 사실 지금까지 --reasoning-budget 옵션은 사실상 껍데기였어요. 0으로 설정해서 사고 과정을 끄는 것 외에는 별 기능이 없었거든요. 이번 업데이트로 샘플러 레벨에서 실제 추론 예산을 제어할 수 있게 됐습니다. 간단히 말해, AI가 답변하기 전에 '얼마나 깊이 생각할지'를 직접 조절할 수 있다는 겁니다. 빠른 응답이 필요할 땐 예산을 줄이고, 복잡한 문제엔 예산을 늘리면 됩니다.
ICML 논문 심사에서 AI가 100% 작성한 논문 발각 — 학계 윤리 논쟁
AI 학회 ICML에서 논문 심사를 맡은 한 연구자가 황당한 상황을 공유했습니다. 배정받은 논문이 100% AI가 작성한 것으로 보인다는 거예요. 해당 카테고리는 LLM 사용이 금지된 분야인데도요. 심사자 표현을 빌리면 "트위터 과대광고 스레드를 읽는 것 같다"고 합니다. 이 문제가 불편한 이유는 명확합니다. 연구 자체는 인간이 했고 글만 AI로 썼다면 어떻게 판단해야 할까요? 규정 위반으로 탈락시켜야 할까요? AI 시대의 연구 윤리 기준이 아직 정립되지 않았다는 걸 보여주는 사례입니다. 비단 학계만의 문제는 아닐 겁니다.
'대형 연구소 이름만 보고 판단하지 말자' — 레딧 논쟁
레딧 머신러닝 커뮤니티에서 재미있는 논쟁이 벌어졌습니다. 15명 이상 저자 중 구글 인턴 한 명이 껴있으면 "구글이 혁신적 아키텍처 발명"이라고 포장하는 관행에 대한 비판입니다. 스탠포드나 MIT 소속 연구자가 공저자로 있으면 마치 그 학교가 주도한 것처럼 기사가 나가는 것도 마찬가지고요. 사실 저도 이런 기사 쓸 때 고민이 됩니다. 대형 연구소라고 모든 연구가 좋은 건 아니고, 작은 팀에서 나온 논문이 더 혁신적일 때도 많습니다. 논문의 가치는 소속이 아니라 내용으로 판단해야 한다는 당연한 이야기인데, 현실에서는 잘 안 지켜지죠.
📌 핵심 정리
- 메타가 AI 에이전트 소셜 네트워크 몰트북 인수 — 에이전트 생태계 선점 전략
- 이온 시스템즈, 초파리 뇌를 뉴런 단위로 복제해 자율 행동 재현 성공
- 엔비디아, 오픈웨이트 AI 모델에 260억 달러 투자 공식 발표
- 애플 M5 Max 128GB 벤치마크 시작 — 로컬 LLM 실사용 가능성 주목
- llama.cpp, 실제 작동하는 추론 예산 기능 드디어 정식 지원
- ICML에서 AI 작성 논문 발각 — 연구 윤리 기준 재정립 필요성 대두
'1. AI 뉴스 & 트렌드' 카테고리의 다른 글
| Nvidia 200억 달러 Groq 딜, AI 칩 판도 재편 — 2026년 3월 16일 AI 뉴스 (0) | 2026.03.16 |
|---|---|
| 법률 AI 5조원 시대, 인지과학 메모리 혁신 — 2026년 3월 13일 AI 뉴스 (0) | 2026.03.13 |
| 2026년 3월 11일 브리핑 (0) | 2026.03.11 |
| 2026년 3월 11일 브리핑 (0) | 2026.03.11 |
| 오늘의 AI 뉴스 브리핑 — 2026년 3월 11일 (0) | 2026.03.11 |