Российские власти готовят закон, который четко пропишет, кто в итоге несет ответственность за решения, принятые с помощью нейросетей.
Речь идет о самых чувствительных областях. Работа врачей, судей, учитпелей и служб безопасности — везде, где цена промаха измеряется не испорченной статистикой, а чьей-то жизнью или свободой, последнее слово останется за человеком.
Искусственный интеллект уже сегодня ставит диагнозы, помогает в обучении и следит за порядком. Но практика показала, что доверять ему безоговорочно пока рано. Пациенты страдают от сбоев оборудования, в судах мелькают ссылки на несуществующие законы, придуманные нейросетью, а учителя автоматически принимают сгенерированные рефераты.
В аппарате вице-премьера признают, что технология вторглась в зону рисков, где ставки слишком высоки, чтобы пускать всё на самотек. Полностью запрещать умные алгоритмы или проверять каждый их шаг власти не планируют. Это бессмысленно и затормозит прогресс.
Вместо этого предлагается точечно разграничить зоны влияния. Разработчики должны отвечать за код, пользователи — за его применение, а критически важные решения останутся исключительно за человеком. В Министерстве науки добавляют, что нейросети — это мощный инструмент познания.
Но этические принципы ИИ пока на уровне человека не может, поэтому замена живого сознания искусственным в обозримом будущем исключена. Законопроект уже собирает предложения ведомств и к концу февраля должен обрести конкретные очертания, передает газета "Известия".
Арсений Луговой