미국 모기지 산업에서 인공지능 AI는 대출 심사를 자동화하며 기술적 접근성 자산을 혁신하고 있지만 그 이면에는 공정성 자산을 파괴하는 충격적인 위험이 숨어 있다.
최근 금융업계는 융자 승인 과정에 AI를 도입하여 심사 시간을 며칠에서 몇 시간으로 단축하고 있지만 이 시스템이 학습한 데이터가 인종과 성별에 대한 기존의 편향을 그대로 반영하면서 디지털 레드라이닝(Digital Redlining)이라는 새로운 차별을 낳고 있다. 이는 인공지능이 무의식적으로 특정 인종이나 지역의 신청자에게 불리한 대출 결정을 내리는 결과를 초래한다.
이러한 알고리즘 편향은 AI를 개발하는 팀의 다양성 부족과 학습 데이터의 편중에서 비롯된다. AI는 데이터에 나타난 과거의 차별적 패턴을 정상으로 학습하여 이를 미래의 결정에 적용하며 이는 저소득층과 소수 인종의 주택 구매 경로를 영구적으로 차단할 수 있다.
실제로 최근 매사추세츠 주에서는 AI 모델을 사용하여 특정 인종의 신청자에게 불리한 대출 조건을 적용한 학생 대출 회사가 당국으로부터 제재를 받았다. 이는 금융 당국이 AI의 불공정 대출 문제를 심각하게 인지하고 있음을 보여준다.
AI에 대한 소비자의 불신 역시 중요한 문제이다. 모기지라는 중대한 결정을 기계에 맡기는 것에 대한 거부감이 크며 특히 대출이 거부될 경우 AI가 왜 그런 결정을 내렸는지 설명할 수 없는 블랙박스 문제에 대한 불안감이 높다.
소비자들은 개인 정보 유출이나 조작 가능성을 우려하며 디지털 서류 제출을 꺼리는 등 인간의 개입을 요구하고 있다. 이로 인해 대출 처리 기간이 오히려 늘어나는 예상치 못한 부작용까지 발생하고 있다.
결론적으로 인공지능이 가져온 효율성이라는 기술적 자산은 공정성 및 투명성 자산이라는 사회적 가치를 훼손해서는 안 된다. 금융 기관들은 AI 모델의 편향성 검증과 투명한 감사 경로를 의무화해야 한다. 궁극적으로 인간의 공정한 판단을 배제하지 않고 AI를 활용하는 하이브리드 시스템만이 모든 소비자가 공평하게 주택 자산을 형성할 수 있는 길을 열어줄 것이다.