AI 금융 버블 위험 – 유럽중앙은행이 경고한 5가지 시스템 리스크
2025년 12월, 유럽중앙은행(ECB) 산하 유럽시스템리스크위원회(ESRB)가 충격적인 보고서를 발표했다. 제목은 “인공지능과 시스템 리스크(Artificial Intelligence and Systemic Risk)“. 핵심 메시지는 명확하다. AI가 2008년 금융위기와 유사한 시스템 붕괴를 초래할 수 있다는 경고다.
ChatGPT가 주간 8억 명의 활성 사용자를 보유하고, 금융기관들이 앞다투어 AI를 도입하는 지금, ESRB는 왜 이런 경고를 내놓은 걸까? 이 글에서는 ESRB 보고서 원문을 바탕으로 AI 금융 버블 위험의 실체를 파헤쳐본다.
목차
ESRB가 AI 버블을 경고한 이유
2025년 12월 보고서 배경
ESRB는 EU 금융 시스템의 거시건전성 감독을 담당하는 핵심 기관이다. 2025년 9월 59차 총회에서 AI 보고서 발간을 승인했고, 12월 최종 보고서가 공개됐다. 보고서는 Advisory Scientific Committee 소속 전문가들이 작성했으며, 68페이지 분량의 방대한 분석을 담고 있다.
보고서는 AI의 이점을 인정하면서도, 금융 시스템에 대한 위험을 명확히 지적한다. “AI는 상당한 이점을 제공하지만, 금융 시스템과 사회에 대한 심각한 우려도 발생시킨다”는 것이 핵심 논지다.
ChatGPT 8억 사용자 시대의 금융 시스템
OpenAI의 ChatGPT, Anthropic의 Claude, Google의 Gemini 같은 대규모 언어모델(LLM)이 누구나 스마트폰으로 접근 가능한 시대가 됐다. ChatGPT만 해도 주간 활성 사용자가 약 8억 명에 달한다.

문제는 이런 도구들이 금융 시스템에 얼마나 빠르게 침투하고 있느냐다. 2024년 기준 EU 비금융 기업의 평균 13%가 AI를 사용 중이며, 전년 8%에서 급증했다. 금융기관들의 채택 속도는 더 빠르다.

표를 보면 EU 은행 85곳을 대상으로 한 조사 결과가 나와 있다. 가로축은 AI 기술 종류(신경망, 의사결정나무, 회귀분석, 자연어처리 등)이고, 세로축은 활용 용도다. 주목할 점은 자금세탁방지(AML)와 사기 탐지에서 의사결정나무(Decision Trees)와 회귀분석이 가장 많이 쓰인다는 것이다. 반면 ChatGPT 같은 대규모 언어모델(LLM)을 포함한 자연어처리(NLP) 활용은 아직 제한적이다.
흥미로운 건 색상 농도다. 진한 회색(20-30% 이상)은 신용평가, 고객 프로파일링, AML 거래 모니터링 등에 집중돼 있다. 하지만 “사용 안 함·계획 없음(Not used – not planned)”을 나타내는 마지막 열을 보자. 대부분의 용도에서 30% 이상의 은행이 아직 AI를 쓰지 않고 있다. 이는 AI 도입이 아직 초기 단계이지만, 동시에 급속한 확산 가능성을 보여준다. 하지만 ESRB는 이런 급속한 확산이 충분한 리스크 평가 없이 이뤄지고 있다고 우려한다
AI 금융 버블 위험의 5가지 핵심 요소
ESRB는 AI가 기존 시스템 리스크를 증폭시키는 11가지 특성을 제시했다. 그중 가장 중요한 5가지를 살펴보자.
시스템 리스크의 원천
AI는 이 구조적 취약성을 증폭시키는 새로운 변수
AI가 시스템 리스크에 영향을 주는 특성
ESRB는 AI의 11가지 특성 중 가장 위험한 5가지를 강조한다. 이들은 위의 5가지 시스템 리스크 원천과 상호작용하며 위기를 증폭시킨다.
→ 공통 노출 증폭
→ 상호연결성 & 대체불가능성 증폭
→ 레버리지 & 유동성 미스매치 증폭
→ 경기순응성 증폭 & 대체불가능성 증폭
→ 모든 시스템 리스크 원천 증폭
AI의 11가지 특성 중 시스템 리스크에 가장 큰 영향을 미치는 5가지
1. 모델 동질성: 모두가 같은 판단을 내린다
Model Uniformity가 가장 위험한 요소다. 수천 개의 금융기관이 소수의 AI 모델을 사용하면 어떻게 될까? 모두가 같은 데이터로 학습된 같은 모델을 쓰면, 위기 상황에서 동일한 판단을 내리게 된다.
보고서는 이를 “생물학적 시스템의 다양성 부족”에 비유한다. 단일 종만 존재하는 생태계는 환경 변화에 취약하다. 금융 시스템도 마찬가지다.
현재 상위 4개 금융 리스크 관리 시스템이 50% 이상의 시장 점유율을 차지한다. AI가 이 집중도를 더 심화시킬 수 있다. 2020년 코로나 폭락처럼 극단 상황이 오면, 모든 AI가 동시에 “팔아!”라고 신호를 보낼 위험이 크다.
2. 집중과 진입장벽: 소수 빅테크 의존
Concentration and Entry Barriers는 구조적 문제다. ChatGPT의 구독 점유율은 60%를 넘는다. 개인용 컴퓨터 시장에서 Windows와 macOS가 90%를 차지하는 것과 비슷한 양상이다.

문제는 진입장벽이다. ChatGPT-4나 Gemini 1.0 Ultra를 학습시키는 데 1억 달러 이상이 든다. 이런 막대한 비용은 소수 빅테크만 감당 가능하다. 결과적으로 금융 시스템 전체가 몇몇 AI 제공자에게 의존하게 되는데, 이는 단일 장애점(Single Point of Failure)을 만든다.
2024년 7월 CrowdStrike 소프트웨어 업데이트 오류로 전 세계 수백만 대의 Windows 기기가 다운됐던 사례를 떠올려보자. AI 제공자에게 같은 문제가 발생하면 금융 시스템 전체가 마비될 수 있다.
3. 과도한 신뢰: AI를 맹신하는 위험
Overreliance and Excessive Trust는 심리적 문제다. AI가 좋을 때 인간보다 우수한 성과를 내면, 사람들은 AI를 과신하기 시작한다. 학술 연구에 따르면, 사람들은 알고리즘을 처음엔 의심하지만 일단 신뢰하면 맹목적으로 따르는 경향이 있다. 아래 차트에서는 젊을 수록 사람보다 AI를 신뢰하고 , 고학력일 수록 AI 신뢰도가 높고 업무 활용도가 높다는 것을 보여준다.

더 위험한 건 “후광 효과(Halo Effect)”다. AI가 특정 작업에서 정확하면, 사람들은 다른 작업에서도 정확할 거라고 착각한다. 하지만 AI는 학습 데이터에 없는 꼬리 리스크(Tail Risk) – 발생 확률은 낮지만 일단 터지면 치명적인 극단적 사건을 제대로 예측하지 못한다.
과거 데이터에 의존하는 AI는 본질적으로 후행적이다. 2008년 서브프라임 모기지 사태나 코로나19 팬데믹처럼 역사에 없던 사건이 터지면, AI는 무용지물이 될 수 있다. 그런데도 사람들이 AI를 맹신하면 리스크 테이킹이 과도해진다
4. 속도: 멈을 수 없는 자동화
Speed는 AI의 양날의 검이다. AI는 거래, 청산, 결제 속도를 극적으로 높인다. 고빈도 거래(HFT)로 인한 플래시 크래시는 이미 여러 번 발생했다.
2010년 5월 6일, E-mini S&P 500 선물 시장에서 발생한 플래시 크래시가 대표적이다. 단 몇 분 만에 시장이 급락했다가 회복됐다. 다행히 당시엔 고빈도 트레이더들에게만 영향이 국한됐다.
하지만 AI가 금융 시스템 전반에 확산되면 이야기가 달라진다. AI는 반응 속도를 높여 경기순응성(Procyclicality)을 증폭시킨다. 시장이 오르면 더 빠르게 매수하고, 내리면 더 빠르게 매도한다. 인간이 개입해서 멈추기 전에 시스템 전체가 붕괴될 수 있다.
5. 레버리지: AI 신뢰 기반의 과도한 차입
Leverage는 AI 신뢰가 만드는 부채 폭탄이다. AI가 리스크를 낮게 평가하면, 금융기관들은 더 많은 레버리지를 사용한다. 자산 가격이 상승하면 담보 가치가 올라가고, 이는 더 많은 차입을 가능하게 한다.
AI가 “안전하다”고 말하면, 시장 리스크 프리미엄이 낮아진다. 투자자들의 낙관론이 자산 가격을 더 밀어 올리고, 이는 다시 AI의 낙관적 전망을 강화한다. 전형적인 피드백 루프다.
문제는 이 사이클이 역전될 때다. 자산 가격이 하락하면 담보 가치가 떨어지고, 은행 자본이 감소하며, 신용 공급이 위축된다. 레버리지를 쓴 투자자들과 기업들이 동시에 디레버리징에 나서면, 작은 충격이 시스템 전체의 붕괴로 이어질 수 있다.
2008년 금융위기와의 유사점
상호연결성과 동시 매도
2008년 금융위기의 핵심 원인 중 하나는 상호연결성(Interconnectedness) 이었다. 금융기관들이 복잡한 네트워크로 얽혀 있어서, 한 곳의 부실이 전체로 전파됐다. AIG가 대표적이다. AIG는 모두와 연결된 허브였지만, 낮은 투명성 때문에 리스크가 보이지 않았다. 문제가 터지자 모든 거래상대방이 동시에 포지션을 청산하려 했고, 시스템이 마비됐다.
AI 시대에도 같은 일이 반복될 수 있다. 소수의 AI 제공자가 허브 역할을 하고, 수많은 금융기관이 스포크(spoke)가 된다. 허브에 문제가 생기면 모든 스포크가 동시에 스트레스를 받는다. 더 나쁜 건, AI가 불투명성(Opacity)을 높인다는 점이다.
AI 모델은 너무 복잡해서 왜 특정 결정을 내렸는지 설명하기 어렵다. 이런 “설명 불가능성(Inscrutability)”은 투명성과 책임성을 해친다. 사용자들이 AI의 결함이나 예상치 못한 행동을 발견하면, 2008년 AIG처럼 급격한 런(run)이 발생할 수 있다.
꼬리 리스크 과소평가
2008년 위기의 또 다른 교훈은 꼬리 리스크 과소평가다.
📊 꼬리 리스크(Tail Risk)란?
- 2008년 금융위기 – 서브프라임 모기지 동시 부실 (왼쪽 꼬리)
- 2020년 코로나 쇼크 – 전 세계 경제활동 마비 (왼쪽 꼬리)
- 2021년 밈주식 광풍 – 게임스탑 3,000% 폭등 (오른쪽 꼬리)
금융 모델들은 역사적 데이터에 의존했고, “전국적으로 주택 가격이 동시에 하락할 리 없다”며 정규분포의 왼쪽 꼬리 부분(극단적 손실)에 있는 사건의 발생 확률을 극히 낮게 평가했다. 하지만 그 “낮은 확률”의 사건이 실제로 터졌고, 시스템 전체가 붕괴했다.
AI도 똑같은 한계를 갖고 있다. History-Constrained라는 특성 때문에, AI는 과거 데이터에 없던 극단적 사건을 예측하지 못한다. 보고서는 이를 “AI는 본질적으로 후행적(backward looking)”이라고 표현한다.
학습 데이터에 충분한 꼬리 리스크 정보가 없으면, AI는 지나치게 낙관적인 평가를 내린다. “이 정도 손실은 100년에 한 번 있을까 말까”라고 판단하지만, 실제로는 10년에 한 번 터질 수 있다. 블랙스완 사건이 발생하면 AI는 무용지물이 되고, 과도한 리스크 테이킹의 대가를 시스템 전체가 치르게 된다.
투자자와 금융기관이 알아야 할 것
AI 특성과 시스템 리스크의 상호작용
ESRB 보고서의 핵심은 Table 3이다. 이 표는 AI의 11가지 특성이 5가지 시스템 리스크 원천과 어떻게 상호작용하는지를 매트릭스로 보여준다.

표를 보면 회색으로 표시된 부분이 AI 특성과 시스템 리스크가 교차하는 지점이다. 주목할 점은:
가로축 (시스템 리스크 원천 5가지):
- 유동성 미스매치 – AI 특성 11개 중 9개가 영향
- 공통 노출 – AI 특성 11개 중 10개가 영향
- 상호연결성 – AI 특성 11개 중 8개가 영향
- 대체불가능성 – AI 특성 11개 중 6개가 영향
- 레버리지 – AI 특성 11개 중 7개가 영향
세로축 (AI 특성 11가지 중 영향력 큰 순):
- 모니터링 어려움 (Monitoring Challenges) – 5가지 리스크 모두에 영향
- 집중화 (Concentration) – 4가지 리스크에 영향
- 모델 동질성 (Model Uniformity) – 4가지 리스크에 영향
- 과도한 신뢰 (Overreliance) – 4가지 리스크에 영향
- 속도 (Speed) – 3가지 리스크에 영향
특히 “모니터링 어려움”이 가장 위험한 이유는 AI의 복잡성 때문에 개발자조차 시스템을 완전히 이해하지 못한다는 것이다. 사용자는 AI가 의도대로 작동하는지 평가할 수 없으며, 감독 당국은 규제 준수 여부를 확인하기 어렵기 때문이다.
표 하단을 보면 “잠재적 AI 특성(Potential features of AI)”도 나온다:
- 자각 AI, 통제 상실 (Self-aware AI) – 4가지 리스크에 영향
- AI 완전 의존 (Complete reliance on AI) – 4가지 리스크에 영향
이는 아직 현실화되지 않았지만, AI가 자율성을 갖거나 인간이 AI 없이 작동할 수 없게 되면 시스템 리스크가 더욱 증폭된다는 경고다.
ESRB의 정책 제안
ESRB는 “신중하고 균형 잡힌 정책 접근(Thoughtful and Measured Policy Approach)”을 요구한다. 너무 이른 규제는 혁신을 저해하지만, 너무 늦은 대응은 통제력 상실을 의미한다.
- 자본·유동성 요구사항 재조정
AI 사용 기관의 자본비율 상향 - 서킷브레이커 강화
AI 거래로 인한 급락 시 자동 중단 - 시장 조작 규제 개정
AI 알고리즘 내부자거래 처벌 기준 - 중앙은행 유동성 시설 확대
AI 위기 시 긴급 자금 공급
- AI 사용 라벨링 의무화
“이 상품은 AI로 운용됩니다” 표시 - AI 모델 정보 공개
어떤 LLM 사용하는지 투자자에게 고지 - 의사결정 과정 설명 의무
AI가 왜 특정 투자 결정을 내렸는지
- AI 제공자 책임
OpenAI, Google 등이 손실의 일부 부담 - 사용 기관 최소 역량 요구
AI 이해도 검증 없이 사용 금지 - 보험 가입 의무화
AI 오작동 손실 보상 보험
- 감독기관 IT 자원 확충
AI 전문가 채용, 슈퍼컴퓨터 도입 - 실시간 모니터링 시스템
AI 거래 패턴 24시간 감시 - 국경 간 협력 강화
EU-미국-아시아 공동 감독 체계 - 스트레스 테스트 고도화
AI 동시 오작동 시나리오 반영
AI는 국경이 없다. 한 나라만의 규제로는 불충분하며, G7 히로시마 AI 프로세스 같은 글로벌 협력이 필수다. 하지만 현재 지정학적 긴장(미중 갈등 등)이 협력을 어렵게 만들고 있다.
금융 불안정성 증가 → 당국 개입 빈번화 → 시스템 신뢰 붕괴”
구체적으로 살펴보면:
1. 규제 조정 (Regulatory Adjustments)
자본 및 유동성 요구사항의 재조정이 핵심이다. AI를 사용하는 금융기관은 더 높은 자본비율을 유지해야 한다. 왜냐하면 AI 오작동 시 손실이 더 크고 빠르게 발생하기 때문이다.
서킷브레이커도 강화가 필요하다. 현재 주식시장의 서킷브레이커는 -8%, -15%, -20% 수준에서 작동하지만, AI 거래는 몇 분 안에 이 수준을 돌파할 수 있다. 더 민감한 조기 경보 시스템이 필요하다.
시장 조작 규제도 개정이 시급하다. 현행법은 “사람”의 내부자거래나 시세조종을 처벌하는데, AI 알고리즘이 자동으로 시장을 조작하면 누구를 처벌해야 하나? 법적 책임 소재를 명확히 해야 한다.
2. 투명성 요구 (Transparency Requirements)
금융 상품에 AI 사용 여부를 표시하는 라벨링이 의무화돼야 한다. 마치 식품에 GMO 표시를 하듯, “이 펀드는 GPT-4 기반 AI로 운용됩니다”라고 명시해야 한다. 투자자는 알 권리가 있다.
3. Skin-in-the-Game 요구사항
AI 제공자(OpenAI, Google, Anthropic 등)가 적절한 리스크를 부담해야 한다. 현재는 금융기관만 손실을 떠안고, AI 회사는 구독료만 받는 구조다. ESRB는 AI 제공자도 오작동으로 인한 손실의 일부를 책임지도록 해야 한다고 제안한다.
금융기관도 AI를 사용하려면 최소한의 역량을 갖춰야 한다. AI 모델을 이해하지 못하면서 맹목적으로 쓰는 걸 막아야 한다는 뜻이다.
4. 감독 강화 (Supervisory Enhancements)
감독 당국이 가장 큰 도전에 직면한다. AI를 감독하려면 감독 당국도 AI 전문가를 고용하고, 첨단 IT 인프라를 갖춰야 한다. 하지만 현실은 정반대다. 공공부문 급여로는 AI 인재를 유치하기 어렵다.
국경 간 협력도 필수다. AI 제공자 대부분이 미국 기업이고, 사용자는 전 세계에 퍼져 있다. EU만의 규제로는 한계가 있다. G7 히로시마 AI 프로세스가 중요한 이유다.
앞으로의 전망
AI 금융 버블 위험은 현실이다. 하지만 비관론만 있는 건 아니다. AI는 리스크 관리, 사기 탐지, 규제 준수를 개선할 잠재력도 갖고 있다. 감독 기관들도 AI를 활용해서 조기 경보 시스템을 구축하고, 스트레스 테스트를 고도화할 수 있다.

차트를 보면 AI가 이미 여러 영역에서 인간을 능가하고 있음을 알 수 있다. 독해력(Reading Comprehension)에서 AI는 인간보다 약간 앞서 있고, 시각적 추론(Visual Reasoning)에서도 거의 동등한 수준에 도달했다. 특히 놀라운 건 경쟁 수준 수학(Competition-Level Mathematics) 영역이다. 불과 몇 년 전만 해도 AI가 복잡한 수학 문제를 풀기 어려웠는데, 이제는 인간 전문가와 거의 대등해졌다.
이는 양날의 검이다. 긍정적으로 보면, AI가 복잡한 금융 모델링, 리스크 계산, 포트폴리오 최적화를 인간보다 빠르고 정확하게 수행할 수 있다는 뜻이다. 금융 감독 당국도 AI를 활용해 방대한 거래 데이터를 실시간으로 분석하고, 이상 징후를 조기에 포착할 수 있다.
하지만 부정적으로 보면, 이런 능력이 과도한 신뢰로 이어질 위험이 크다. 차트에서 AI가 인간과 비슷하거나 우수한 성과를 보이면, 사람들은 “AI가 모든 걸 더 잘한다”고 착각하기 쉽다. 특히 금융 분야에서 이런 맹신은 치명적이다. AI는 과거 데이터 패턴 인식에는 뛰어나지만, 차트에 나오지 않는 예측 불가능한 극단 상황(블랙스완)에는 여전히 취약하기 때문이다.
더 우려스러운 건 AI의 발전 속도다. 보고서에 따르면 AI의 계획/자율성/에이전시(Planning/Autonomy/Agency) 능력은 7개월마다 2배씩 증가하고 있다. 이는 AI가 점점 더 인간의 감독 없이 독립적으로 결정을 내릴 수 있게 된다는 뜻이다. 금융 시스템에서 이런 자율성이 무분별하게 확대되면, 통제 불능 상태가 올 수 있다.
핵심은 속도와 적응력이다. AI는 빠르게 진화한다. 규제도 그 속도를 따라잡아야 한다. ESRB는 “AI와 보조를 맞추지 못하면 금융 불안정성이 증가하고, 당국의 개입이 더 빈번해질 것”이라고 경고한다.
2025년 12월 현재, 우리는 기로에 서 있다. AI를 현명하게 활용하면 금융 시스템이 더 효율적이고 회복력 있게 될 수 있다. 하지만 맹목적으로 수용하면 2008년보다 더 큰 위기를 맞을 수 있다.
ESRB의 경고를 무시해선 안 된다. AI 금융 버블 위험은 이미 우리 앞에 와 있다.
💡 핵심 요약
⚠️ ESRB의 경고
2025년 12월 유럽시스템리스크위원회(ESRB)는 AI가 2008년 금융위기와 유사한 시스템 붕괴를 초래할 수 있다고 경고했다.
🎯 5대 위험 요소
모델 동질성(모두가 같은 AI 사용), 집중화(소수 빅테크 독점), 과도한 신뢰(꼬리 리스크 무시), 속도(멈출 수 없는 자동화), 모니터링 어려움이 시스템을 위협한다.
📊 현재 상황
금융기관들이 ChatGPT 같은 LLM을 앞다투어 도입하면서, 위기 시 동시 매도로 인한 시장 붕괴 가능성이 커지고 있다.
🛡️ 정책 제안
ESRB는 자본 규제 강화, AI 사용 투명성 의무화, 제공자 책임 부담, 국제 공조 강화를 제안했다.
⚖️ 결론
AI를 현명하게 활용하면 금융 시스템이 발전하지만, 맹목적 수용은 2008년보다 더 큰 위기를 불러올 수 있다.
⚠️ 면책조항
본 글은 ESRB의 공개 보고서를 바탕으로 작성된 정보 제공 목적의 콘텐츠이며, 투자 권유나 금융 자문이 아니다. AI 기술과 금융 시스템의 복잡성으로 인해 예측과 다른 결과가 발생할 수 있다. 투자 결정은 본인의 판단과 책임하에 이루어져야 하며, 필요시 전문가의 조언을 구해야 한다. 본 글의 내용으로 인한 손실이나 손해에 대해 저자는 책임지지 않는다.




