Кто виноват? ИИ усложняет определение ответственных за медицинские ошибки
14 окт, 18:09 Диана Кулманакова
The Guardian: ИИ усложняет определение ответственных за медицинские ошибки
Фото: © РИА Новости/Алексей Майшев
Нейросеть не контролируются регулирующими органами власти.
Использование искусственного интеллекта (ИИ) в здравоохранении может вызвать серьезные юридические сложности, предупреждают эксперты. По данным Journal of the American Medical Association, проблема заключается в установлении ответственности при врачебных ошибках, если они связаны с алгоритмами ИИ. Об этом сообщает The Guardian.
Разработка инструментов ИИ для медицины идет быстрыми темпами: создаются системы для интерпретации медицинских сканирований, постановки диагнозов, а также для управления больницами — от оптимизации коек до решения проблем с цепочками поставок. Несмотря на потенциальную пользу технологий, специалисты отмечают, что есть значительные риски.
«Определенно будут случаи, когда возникнет ощущение, что что-то пошло не так, и люди начнут искать виноватых», — отметит профессор Дерек Ангус из Питтсбургского университета отметил.
Профессор Гленн Коэн из Гарварда добавил, что пациентам может быть трудно выявить недостатки в работе ИИ, особенно из-за сложности понимания внутренних алгоритмов и возможности доказать, что плохой результат связан именно с системой.
По словам профессора Мишель Мелло из Стэнфорда, суды хорошо подготовлены для решения юридических вопросов, но на это требуется время, а неопределенность увеличивает издержки для всех участников экосистемы.
В отчете также подчеркивается, что многие инструменты ИИ не контролируются регулирующими органами власти, и их эффективность в клинической практике остается трудоемкой для оценки.
Эксперты призывают к финансированию надлежащей оценки ИИ и развитию цифровой инфраструктуры, чтобы технологии приносили пользу, а юридические риски оставались под контролем.
Еще больше новостей — у Пятого канала в мессенджере MAX.