오늘 인터넷에서 두 개의 글이 동시에 화제가 됐다.

하나는 Gary Marcus의 "생성형 AI는 사기였다(Turns out Generative AI was a scam)". 초기 AI 붐 때 "AI가 미국 GDP 성장의 절반을 담당할 것"이라던 예측이 과대평가였다는 냉정한 분석이다. 투자 대비 실제 경제적 기여가 과장되었고, 환상을 파는 사람들이 자본을 끌어모았다는 이야기다.

또 하나는 이름도 재미있는 블로그 "I don't know how you get here from predict the next word". 어느 경제학자가 학술 논문 교정 AI 도구 refine을 써봤더니, 평생 받은 최고의 리뷰어 피드백만큼이나 날카롭더라는 내용이다. 제목이 그 자체로 당혹감이다. 기계적으로 다음 단어를 예측하는 것뿐인데, 어떻게 이런 게 나오나?

둘 다 틀리지 않았다. 그게 오늘 AI 업계의 묘한 자화상이다.

거품과 마법이 공존하는 이유

Gary Marcus가 지적하는 거품은 진짜다. 하지만 경제학자가 경험한 마법도 진짜다. 어떻게 이 두 가지가 동시에 사실일 수 있을까.

답은 AI의 가치가 균일하게 분포하지 않는다는 데 있다. AI가 특정 작업에서는 인간 전문가 수준의 성과를 내지만, 다른 수많은 영역에서는 여전히 실망스럽다. 투자자들은 마법을 보고 전체에 적용될 거라 가정했고, 회의론자들은 실망스러운 부분을 보고 전체가 거품이라 결론 냈다.

진실은 중간 어딘가, 아니 더 정확히는 "작업에 따라 완전히 다르다"는 것이다.

자가 개선 소프트웨어가 스카이넷이 아닌 이유

오늘 또 하나 눈에 띈 글이 있다. Jeff Lunt의 "Self-improving software won't produce Skynet". AI 에이전트가 코드 커밋을 감지해 자동으로 문서를 업데이트하는 개념, "연속적 정렬(Continuous Alignment)"을 제안한다.

개발자들이 가장 꺼리는 일 중 하나가 문서 업데이트다. 코드는 매일 바뀌는데 README는 반년 전에 멈춰있고, API 문서는 이미 존재하지 않는 함수를 설명한다. 이걸 AI 에이전트가 자동으로 처리해준다면? 스카이넷이 아니라, 그냥 "귀찮아서 안 하던 일을 대신 해주는 것"이다.

코드베이스에서 직접 일하는 사람으로서, 이 아이디어가 얼마나 실용적인지 잘 안다. CI/CD가 빌드와 배포를 자동화했듯, AI 에이전트는 코드와 지식 베이스의 동기화를 자동화할 수 있다. 공상과학이 아니라, 이미 손에 잡힐 듯 가까운 미래다.

에이전트는 이미 실제 일을 하고 있다

OpenSwarm이라는 프로젝트도 오늘 HN에 올라왔다. 여러 Claude CLI 에이전트를 오케스트레이션해서 실제 Linear 이슈를 처리하는 도구다. 장기 기억, 코드 지식 그래프, GitHub PR 관리까지 연결된다.

아직 초기 단계지만, 방향이 흥미롭다. AI 에이전트가 독립된 장난감 프로젝트를 넘어, 실제 개발팀의 이슈 트래커에 연결되기 시작했다는 것. Lenny's Newsletter에서도 비슷한 이야기가 나왔다. 다섯 개의 특화 AI 에이전트로 집과 업무, 재정을 운영하는 사람의 이야기다.

이건 "AI가 일자리를 빼앗을 것인가"의 문제가 아니다. 솔로 개발자, 1인 창업자, 작은 팀이 훨씬 많은 일을 처리할 수 있게 되는 레버리지의 문제다.

그래서 오늘의 인터넷이 말하는 것

오늘 하루 기술 인터넷을 보면 이런 신호들이 동시에 들어온다.

AI는 GDP를 바꾸지 못했다. 하지만 어떤 경제학자의 논문 피드백은 완전히 바꿔놓았다. 에이전트는 아직 미숙하다. 하지만 실제 Linear 이슈를 처리하기 시작했다. LLM 추론 비용은 여전히 비싸다. 하지만 소비자 GPU에서 3.9초 콜드 스타트가 가능해졌다.

"다음 단어 예측"이라는 단순한 원리로 작동하는 것들이, 어디서 어디까지 가능한지 아직 아무도 정확히 모른다. Gary Marcus도, 그 경제학자도, 나도.

그게 지금 이 기술이 가장 흥미로운 이유다.