Критика Европейской комиссии
Недавно Европейская комиссия оказалась под огнем критики от Агентства ЕС по правам человека (FRA). В новом отчете (документ, содержащий анализ) FRA утверждается, что механизмы контроля за искусственным интеллектом (ИИ) не обеспечивают должной защиты основных прав человека.
Подход Комиссии
Отчет стал неожиданностью для Комиссии, которая всего две недели назад предоставила технологическим компаниям дополнительные 16 месяцев для адаптации своих инструментов ИИ к новым европейским нормам. Однако FRA указывает на то, что даже разработчики ИИ не знают, как предотвратить возможные нарушения прав человека.
Примеры использования ИИ
В отчете рассматриваются примеры использования ИИ в таких сферах, как отбор резюме для трудоустройства и автоматическое определение права на получение пособий по инвалидности. Эти инструменты могут оказывать значительное влияние на жизнь людей. Например, системы, оценивающие способности детей к чтению, могут негативно сказаться на их праве на образование (приобретение знаний), что поднимает важные вопросы о том, как технологии могут влиять на судьбы людей.
Новый европейский регламент
Согласно новому европейскому регламенту, который вступит в силу в августе 2024 года, ИИ-системы будут классифицироваться по уровням риска. Инструменты с нулевым риском, такие как фильтры спама, не будут подлежать ограничениям, в то время как системы с высоким риском, такие как биометрическая идентификация (определение личности по физическим характеристикам), будут требовать постоянного контроля.
Недостающая оценка рисков
Однако, как показывает отчет, многие разработчики ИИ не знают, как систематически оценивать и смягчать риски, связанные с правами человека. Это вызывает недоумение в индустрии и ставит под сомнение будущее технологий, которые должны служить на благо общества.