имели худшие показатели (скажем, их реже брали на работу, реже одобряли кредиты), модель может «усвоить» это не как социальную несправедливость, а как некий «признак», заслуживающий приоритета. В результате агрессия против определённых групп, которая исторически имела место в обществе, может воспроизводиться и даже усиливаться в рекомендациях ИИ. Именно поэтому сейчас становятся популярны системы fairness-тестов, направленные на проверку того, нет ли дисбаланса в обработке заявок или отборе кандидатов. Если же обнаруживается явный bias, компаниям придётся корректировать выборки или применять дополнительные механизмы.