English original: The Next 3 Years: What Actually Happens When AI Agents Take Over (2026-2028)
/posts/ai-future-next-3-years-2026-2028/
믿기 어려운 예측
Anthropic CEO Dario Amodei는 이렇게 말한다.
“AI 시스템이 거의 모든 일에서 거의 모든 인간보다 더 잘하는 시점”이 2026~2027에 올 수 있다.
DeepMind 공동창업자 Shane Legg는 더 공격적인 확률을 던진다.
“2028년까지 최소 AGI(minimal AGI)일 확률 50%.”
불편한 사실은, 아직 많은 사람이 AI를 ‘도구’로 생각하지만, 그걸 만드는 사람들은 ‘다른 것’을 보고 있다는 점이다.
Part 1. 2026 — 에이전트가 ‘실제 제품’이 되는 해
무엇이 달라지나
원문은 2026년을 “에이전트가 실험이 아니라 제품이 되는 시점"으로 본다.
- 멀티모달이 표준이 되고(텍스트+이미지+오디오/비디오)
- 코딩은 ‘보조’에서 ‘기능 단위 수행’으로 이동하고
- 에이전트는 제한된 워크플로우에서 프로덕션 레디가 된다
일상에서 자동화되는 것
원문이 상정하는 자동화는 ‘멋진 데모’가 아니라, 반복 업무다.
- 쇼핑 최적화
- 세금 신고
- 보험 클레임
- 기본 고객지원
하지만 아직 자동화되지 않는 것도 있다.
- 복잡한 의사결정
- 관계/조율
- 창의적 디렉션(최종 책임)
그리고 중요한 비용: 프라이버시/권한. 에이전트가 일을 하려면 데이터 접근이 필요하고, 여기서 사고가 난다.
Part 2. 2027 — 자율성이 ‘신뢰’와 ‘고용’으로 번지는 해
원문은 2027년을 “자율성이 체감되는 해”로 본다.
핵심은 ‘능력’이 아니라 **트랙 레코드(신뢰)**다.
- 사람/조직이 AI의 단기 의사결정을 믿기 시작하면
- 자동화는 기능이 아니라 운영 모델로 번진다
이때 고용 충격이 온다.
원문 프레임(요지):
- 생산성은 늘지만
- 일자리와 소비는 줄 수 있고
- 기업 이익이 늘어도 총수요가 흔들릴 수 있다
그리고 격차가 커질 수 있다.
- 상위 계층은 AI로 최적화를 극대화하고
- 하위 계층은 대체/임금압력에 노출된다
Part 3. 2028 — AGI가 ‘가능한 시나리오’가 되는 해
Shane Legg의 2028 예측은 확정이 아니다. 하지만 원문이 강조하는 건 “확률이 올라가는 순간”이 주는 사회/경제적 반응이다.
- 더 많은 직무가 자동화될 수 있고
- 성장률은 올라가도
- 노동분배율은 더 떨어질 수 있다
그리고 거버넌스 문제가 커진다.
- 누가 통제하나
- 누가 책임지나
- 민주주의/정보 신뢰는 어떻게 되나
원문이 말하는 ‘준비 프레임’
개인
가치가 오르는 스킬: 시스템 운영, 관계/조율, 문제정의, 안전/거버넌스.
기업
2026: 데이터/워크플로우/컴퓨트(전력 포함)가 경쟁력. 2027: 운영이 AI 통합되지 않으면 생존이 어려움. 2028: “인간의 가치”를 다시 정의해야 함.
Sources
Investor Notes (3줄)
- 에이전트의 상업화는 ‘모델 성능’보다 **권한/감사/책임(거버넌스)**에서 속도가 갈린다.
- 실적을 바꾸는 첫 구간은 프론트보다 백오피스/운영 자동화에서 나온다.
- 결국 병목은 컴퓨트+전력+데이터 접근성으로 수렴한다.
Plura CTA (자연스럽게)
같은 AI 이슈도 매체마다 무엇을 다르게 강조하는지 빠르게 비교하려면: https://plura.news/?utm_source=aisurvival&utm_medium=blog&utm_campaign=kr_translation_wip&utm_content=ai_agents


