Создайте «скромный» ИИ для медицины

3 просмотров Источник
Создайте «скромный» ИИ для медицины

Искусственный интеллект обещает помочь врачам в диагностике пациентов и персонализации лечения. Однако международная группа ученых под руководством MIT предупреждает, что современные ИИ-системы могут неверно направлять врачей из-за своей чрезмерной уверенности в ошибочных решениях. Один из способов избежать таких ошибок — программировать ИИ-системы так, чтобы они были более «скромными». Такие системы будут сообщать, когда они не уверены в своих диагнозах или рекомендациях, и побуждать пользователей собирать дополнительную информацию в случае неопределенности.

Лео Энтони Чели, старший научный сотрудник MIT, утверждает, что ИИ можно использовать не только как оракула, но и как тренера. Это позволит увеличить способность извлекать информацию и повысить уровень участия врачей в принятии решений. Чели и его коллеги разработали рамочную структуру, которая может помочь разработчикам ИИ создавать системы, демонстрирующие любопытство и скромность. Такой подход позволит врачам и ИИ работать в партнерстве и предотвратит чрезмерное влияние ИИ на решения врачей.

Согласно команде MIT, чрезмерно уверенные ИИ-системы могут приводить к ошибкам в медицинских учреждениях. Предыдущие исследования показали, что врачи в реанимации склонны полагаться на ИИ-системы, которые они воспринимают как надежные, даже когда их интуиция противоречит рекомендациям ИИ. Врачи и пациенты с большей вероятностью принимают неверные рекомендации ИИ, когда они воспринимаются как авторитетные.

Исследователи подчеркивают, что вместо систем, предлагающих чрезмерно уверенные, но потенциально неверные советы, медицинские учреждения должны иметь доступ к ИИ-системам, которые работают более совместно с клиницистами. Они стремятся вовлечь людей в эти системы, чтобы способствовать коллективному размышлению и переосмыслению, а не полагаться на изолированные ИИ-агенты.

Для создания такой системы консорциум разработал рамочную структуру, которая включает несколько вычислительных модулей, которые можно интегрировать в существующие ИИ-системы. Один из этих модулей требует от ИИ-модели оценивать свою уверенность при диагностических предсказаниях. Разработанный членами консорциума Эпистемический Балл Добродетели служит проверкой самосознания, обеспечивая, чтобы уверенность системы соответствовала неопределенности и сложности каждой клинической ситуации.

С этой самосознанием модель может адаптировать свои ответы к ситуации. Если система обнаруживает, что ее уверенность превышает то, что поддерживает доступная информация, она может приостановить и отметить несоответствие, запросив конкретные тесты или историю, которые разрешат неопределенность, или рекомендовать консультацию специалиста. Цель состоит в том, чтобы ИИ не только предоставлял ответы, но и сигнализировал, когда эти ответы следует воспринимать с осторожностью.

Это исследование является частью более широкой инициативы Чели и его коллег, направленной на создание ИИ-систем, разработанных с учетом людей, которые в конечном итоге будут наиболее затронуты этими инструментами. Многие модели ИИ, такие как MIMIC, обучаются на общедоступных данных из США, что может привести к введению предвзятости к определенному способу мышления о медицинских вопросах и исключению других.

Похожие статьи