В своём выступлении Наталья Щербакова представляет результаты оригинального исследования 2025 года, опубликованного в Journal of Applied Behavior Analysis, посвящённого сравнительному анализу ответов большой языковой модели ChatGPT-4 и команды экспертов-поведенческих аналитиков на клинические вопросы в области прикладного анализа поведения (ABA). Исследование было инициировано в ответ на стремительный рост интереса к использованию искусственного интеллекта в ABA при практически полном отсутствии эмпирических данных о его фактической эффективности, приемлемости и ограничениях в этой профессиональной сфере.
В качестве методологии авторы использовали слепое сравнение. Выборка состояла из 51 сертифицированного поведенческого аналитика (BCBA/BCBA-D). Участникам последовательно предъявлялись девять пар ответов на клинические вопросы из экзаменационного плана BCBA; в каждой паре один ответ был сгенерирован ChatGPT-4, а второй подготовлен командой из трёх опытных клиницистов. Специалисты выбирали предпочтительный ответ, оценивали уровень согласия с каждым по пятибалльной шкале и пытались определить источник ответа (ИИ или человек).
Ключевые результаты оказались весьма показательными. Во-первых, специалисты статистически значимо чаще предпочитали ответы, сгенерированные ChatGPT-4, выбирая их в 2,56 раза чаще, чем ответы экспертов. Наибольшее преимущество ИИ было зафиксировано в вопросах, касающихся этики, философских оснований поведения и оценки супервизии. Во-вторых, уровень согласия с ответами ChatGPT был высоким и по ряду вопросов не уступал, а иногда и превышал согласие с ответами клиницистов. В-третьих, и это наиболее важный вывод, точность распознавания источника ответа участниками оказалась на уровне случайного угадывания (около 52%). Это означает, что профессионалы не смогли надёжно отличить ответ ИИ от человеческого даже в рамках своей предметной области.
Параллельно было выявлено, что около 16% опрошенных специалистов уже используют ИИ в своей практике для таких задач, как написание отчётов, формулировка целей или создание обучающих материалов.
Практические и этические выводы исследования носят двойственный характер. С одной стороны, продемонстрирована способность современной языковой модели формировать ответы, которые воспринимаются профессиональным сообществом как содержательные и корректные, что открывает потенциал для её использования в качестве вспомогательного инструмента. С другой стороны, неразличимость ответов ИИ и экспертов создаёт серьёзные риски. К ним относятся потенциальная опора на ошибочные или предвзятые сгенерированные ответы («галлюцинации» ИИ), угрозы конфиденциальности данных и прозрачности клинических решений.
Авторы настаивают на безотлагательной необходимости разработки и внедрения чётких профессиональных и этических руководств, регламентирующих ответственное использование ИИ в практике прикладного анализа поведения. Исследование ясно показывает, что игнорировать эту технологическую реальность более невозможно, и сообществу поведенческих аналитиков необходимо активно формировать стандарты её безопасного и этичного применения.




