Автоматизовані моделі оцінки нерухомості (AVM) продаються як рішення, що усувають людську суб’єктивність. Алгоритм не бачить раси, не враховує зовнішність, не приймає рішень під впливом настрою. Здається, ідеальний інструмент для справедливого ринку. Однак дані свідчать про інше: у низці задокументованих випадків алгоритми не просто відтворюють упередженість, вони роблять її важчою для виявлення та усунення.
Як виникає упередженість у «нейтральному» алгоритмі
Алгоритм машинного навчання навчається на історичних даних. Якщо ці дані відображають десятиліття дискримінації на ринку нерухомості, практику redlining, нерівний доступ до кредитування, систематичне заниження вартості житла в певних районах — алгоритм засвоює ці патерни як норму.
Механізм упередженості може бути непрямим. Алгоритм не використовує расу як вхідний параметр напряму. Натомість він спирається на проксі-змінні: середній дохід у районі, рівень злочинності, оцінки шкіл, щільність застарілої інфраструктури. Ці змінні статистично корелюють з демографічним складом населення і через них упередженість потрапляє у модель, зберігаючи зовнішню видимість об’єктивності.
Дослідження Університету Каліфорнії в Берклі зафіксувало: AI-система іпотечного кредитування систематично встановлювала вищі ставки для чорношкірих та латиноамериканських позичальників порівняно з білими позичальниками за ідентичними кредитними профілями. Це відбувалося без жодного явного дискримінаційного параметра у моделі.
Задокументовані прояви: що відомо з досліджень
Дослідження, проведене Freddie Mac, показало: AVM-системи з більшою ймовірністю занижують вартість будинків у районах із переважно чорношкірим або латиноамериканським населенням. Причина — не в явній дискримінаційній логіці алгоритму, а в тому, що на подібних даних він і навчався.
Окреме дослідження HUD (Агентства з житла та міського розвитку США) виявило стійку закономірність: AVM демонструють значно більшу похибку оцінки саме в районах із більшістю чорношкірого населення порівняно з районами з більшістю білого населення. Навіть після застосування більш складних ML-технік та розширення наборів даних різниця в похибці залишалася статистично значущою.
Науковці з Nature Human Behaviour задокументували ще один тип асиметрії: ML-моделі оцінки нерухомості систематично переоцінюють об’єкти в районах із вищим рівнем освіти та недооцінюють у районах із нижчим — незалежно від фізичного стану самого житла. Алгоритм, що добре «підганяється» під наявні ринкові ціни, ненавмисно фіксує та підсилює соціальну нерівність.
Чому це складніше усунути, ніж людське упередження
Упередженість людського оцінювача видима та може бути оскаржена. Упередженість алгоритму захована за технічною складністю. Навіть якщо результат дискримінаційний, відстежити, який саме параметр або їх комбінація призвела до заниженої оцінки, технічно складно. Особливо у великих нейронних мережах, де логіка прийняття рішень не піддається прямій інтерпретації.
Регулятори США в заявах CFPB прямо вказали: алгоритми здатні маскувати упереджені вхідні дані під оболонкою уявної об’єктивності, що ускладнює виявлення та боротьбу з ними.
| Параметр | Людська упередженість | Алгоритмічна упередженість | | —– | —– | —– | | Видимість | Проявляється у поведінці оцінювача, яку можна спостерігати | Прихована у математичній моделі, недоступна для прямого спостереження | | Масштаб | Обмежений одним фахівцем або командою | Масштабується автоматично на тисячі оцінок одночасно | | Пояснюваність | Оцінювач може пояснити своє рішення | Рішення «чорної скриньки» часто не піддається інтерпретації | | Оскарження | Клієнт може звернутися до іншого оцінювача | Складно довести системну упередженість без технічного аудиту | | Регуляторний захист | Закони про справедливе житло охоплюють людські рішення | Алгоритм довго вважався «нейтральним» — правило CFPB 2024 це змінило | | Самовідтворення | Залежить від конкретної людини | Вбудована у навчальні дані та відтворюється з кожною новою версією моделі | | Виявлення | Через скарги, перевірки, порівняння оцінок | Вимагає спеціального статистичного аудиту або доступу до вихідного коду |
Таблиця показує ключову проблему: алгоритмічна упередженість не просто відтворює людську, вона робить її системною, масштабованою та захищеною псевдооб’єктивністю. Саме тому регулятори у США та ЄС почали вводити спеціальні вимоги до AVM-систем, яких ніколи не існувало для людських оцінювачів.
Хочете розібратися, як будувати PropTech-рішення з урахуванням вимог до справедливості алгоритмів та AI ethics? Команда ORIL Innovation консультує технологічні команди та девелоперів щодо відповідального впровадження AI у сфері нерухомості. Записатися на консультацію →
Що роблять регулятори: нові стандарти у США
У червні 2024 року шість федеральних регуляторів США — CFPB, OCC, Федеральна резервна система, FDIC, NCUA та FHFA, — спільно затвердили нове правило: Quality Control Standards for Automated Valuation Models.
Правило зобов’язує компанії, що використовують AVM-системи для іпотечного кредитування, дотримуватися п’яти стандартів контролю якості: забезпечення точності оцінки, захист від маніпуляцій з даними, уникнення конфлікту інтересів, обов’язкове випадкове тестування моделей та відповідність антидискримінаційному законодавству.
Паралельно HUD у липні 2024 року висунув обвинувачення у расовій дискримінації проти кредитора, компанії з оцінки нерухомості та оцінювача за порушення Закону про справедливе житло в процесі оцінки. Це стало сигналом для ринку: регуляторний тиск у цій сфері зростає, і технологічна нейтральність більше не є достатнім аргументом захисту.
EU AI Act та AVM-системи: що це означає на практиці
EU AI Act, що набрав чинності у 2024 році з поетапним введенням вимог до 2026–2027 років, запроваджує класифікацію AI-систем за рівнем ризику. Автоматизовані системи оцінки нерухомості, що впливають на доступ до кредитування та іпотечних продуктів, підпадають під категорію «високоризикових AI-систем» поряд із системами найму на роботу, медичною діагностикою та оцінкою кредитоспроможності.
Що це означає для PropTech-команд, що розробляють або планують виводити AVM-продукти на European ринок:
- Обов’язкова документація. Постачальники високоризикових AI-систем зобов’язані вести технічну документацію, що описує архітектуру моделі, навчальні дані та методологію оцінки ризиків упередженості.
- Прозорість та пояснюваність. Система має бути здатна пояснити результат оцінки в зрозумілих термінах, а не лише надати число. Це безпосередньо стосується «чорних скриньок» глибокого навчання.
- Людський нагляд. Для високоризикових систем обов’язкова можливість людського втручання та перегляду результатів. Повністю автономні AVM без механізму оскарження не відповідатимуть вимогам.
- Аудит на упередженість. Перед виходом на ринок і на регулярній основі після обов’язкове тестування системи на дискримінаційні результати по захищених характеристиках.
- Реєстрація. Високоризикові AI-системи підлягають реєстрації у спеціальній базі даних ЄС.
Для команд, що зараз будують AVM-продукти з прицілом на European ринок, ці вимоги варто закладати в архітектуру на етапі проєктування, адже ретрофіт compliance обходиться значно дорожче.
Технічні підходи до зменшення упередженості
Дослідники та PropTech-команди розробляють кілька напрямків технічного вирішення проблеми.
- Аудит моделей. Регулярна перевірка результатів оцінки на наявність систематичних відхилень по демографічних ознаках чи географічних зонах. Порівняння результатів AVM з незалежними оцінками.
- SHAP-значення та пояснювані моделі. Технічні інструменти, що дозволяють зрозуміти, які саме параметри найбільше вплинули на конкретну оцінку. Підвищують прозорість і дозволяють виявляти підозрілі закономірності.
- Альтернативні джерела даних. Включення нетрадиційних даних, замість опори виключно на історичні транзакційні дані, що відображають дискримінаційні практики минулого. Наприклад, стану фізичної інфраструктури за супутниковими знімками, реальної ринкової активності тощо.
- Гібридні підходи. Поєднання алгоритмічної оцінки з людським переглядом у граничних випадках або при значних відхиленнях від очікуваного діапазону.
Важливо розуміти: проблема упередженості в AVM вирішується технічними методами але потребує усвідомленого рішення команди, що розробляє та впроваджує систему.
Чекліст: як перевірити AVM-модель на упередженість
Для PropTech-команд, що розробляють або аудитують системи автоматизованої оцінки нерухомості:
– [ ] Аудит навчальних даних. Перевірте, чи містять навчальні дані транзакції з районів, що історично зазнавали дискримінаційних практик. Чи збалансована вибірка за географічними та демографічними ознаками?
– [ ] Тестування на захищені групи. Порівняйте результати оцінки для подібних об’єктів у районах із різним демографічним складом. Чи є статистично значуща різниця в похибці моделі?
– [ ] Перевірка проксі-змінних. Які змінні модель використовує як вхідні дані? Чи є серед них показники, що статистично корелюють із расою, етнічністю або соціальним статусом (наприклад, «середній дохід у районі», «рівень злочинності»)?
– [ ] SHAP-аналіз або аналог. Чи можете ви пояснити, які саме параметри найбільше вплинули на конкретну оцінку? Якщо ні, модель потребує доопрацювання в частині пояснюваності.
– [ ] Регулярне повторне тестування. Упередженість може з’являтися після перенавчання моделі на нових даних. Аудит — це не разовий захід, а регулярний процес.
– [ ] Механізм оскарження. Чи передбачена можливість людського перегляду результату? Чи може клієнт оскаржити оцінку та отримати пояснення?
– [ ] Відповідність регуляторним вимогам. Для US-ринку: відповідність правилу CFPB 2024 щодо AVM. Для EU-ринку: перевірка вимог EU AI Act щодо класифікації системи та обов’язкової документації.
– [ ] Документація методології. Чи зафіксована методологія навчання моделі, вибір даних та результати аудиту у внутрішній документації, доступній для регуляторної перевірки?
Чому це важливо для PropTech-команд за межами США
Алгоритмічна упередженість — явище, що не обмежується американським ринком. Будь-яка команда, що розробляє або впроваджує AVM-систему на основі історичних ринкових даних, стикається з тим самим ризиком: якщо ринок, на якому збиралися дані, мав структурні нерівності, модель їх засвоїть.
Для European PropTech-ринку це питання набуває особливого виміру в контексті EU AI Act, що вводить категорію «високоризикових AI-систем» і автоматизовані системи оцінки нерухомості, що впливають на доступ до кредитування, цілком підпадають під цю категорію.
Відповідальне проєктування AVM-систем — не лише питання регуляторного комплаєнсу. Це питання довіри до PropTech як галузі та до AI як інструменту, що має покращувати, а не відтворювати несправедливість ринку.
Хочете стежити за розвитком AI ethics у PropTech та питаннями відповідального впровадження технологій у нерухомості? Слухайте подкаст Innovation Blueprint — розмови з практиками ринку про технології, що формують майбутнє Built Environment. Слухати Innovation Blueprint →
Алгоритмічна упередженість в оцінці нерухомості — проблема, що знаходиться на перетині технологій, права та соціальної справедливості. Вона вимагає уваги не тільки від регуляторів, а й від команд, що будують PropTech-продукти: на етапі проєктування, вибору навчальних даних та архітектури моделі. Рішення про те, на яких даних навчати алгоритм і як перевіряти його справедливість, приймають конкретні люди і саме від них залежить, чи стане AI інструментом більш справедливого ринку.
Джерела:
- CFPB. Quality Control Standards for Automated Valuation Models. June 2024
- Debevoise & Plimpton. Federal Regulators Approve New Rule on AI Use and Bias Risks in Real Estate Valuation. July 2024
- HUD. Fair Housing Act Charge: Racial Discrimination in Appraisal Process. July 2024
- Freddie Mac. Racial and Ethnic Valuation Gaps in Home Purchase Appraisals
- HUD User / Cityscape. Racial Disparities in Automated Valuation Models. Vol. 26, No. 1
- Nature Humanities and Social Sciences. Asymmetric Impacts of AI on Housing Price Valuation Across Education Levels. December 2025
- University of California, Berkeley. Research on AI mortgage systems and racial disparities
- UChicago Kreisman Initiative. AI is Making Housing Discrimination Easier Than Ever Before. February 2024
