Исследование показало, что поддержка чата на базе искусственного интеллекта повышает качество онлайн-общения

Загляните в раздел комментариев многих социальных сетей и цифровых новостных платформ, и вы, скорее всего, обнаружите кучу оскорблений, угроз и даже домогательств. Фактически, опрос Pew Research Center показал, что 41% взрослых американцев лично сталкивались с онлайн-домогательствами, а 1 из 5 взрослых говорят, что подвергались онлайн-преследованиям за свои политические взгляды.

Но исследователи из BYU и Университета Дьюка говорят, что насмешливые онлайн-разговоры не обязательно должны быть нормой. В совместном документе двух университетов было обнаружено, что искусственный интеллект может быть использован для улучшения качества общения и продвижения гражданского диалога в онлайн-взаимодействиях. Исследование было недавно опубликовано в журнале Proceedings of the National Academy of Sciences.

Используя специально разработанную онлайн-платформу, созданную студентом УБЮ Вином Хоу, исследователи провели необычный эксперимент. Они объединили участников с противоположными точками зрения в онлайн-чате и попросили их обсудить крайне поляризующую тему в американской политике: контроль над оружием.

Во время разговора один пользователь периодически получал подсказку от инструмента искусственного интеллекта, предлагающего перефразировать его сообщение, чтобы сделать его более вежливым или дружелюбным, но без изменения его содержания. Участники имели свободу принимать, изменять или отклонять предложения инструмента искусственного интеллекта. Когда чат завершился, участники были направлены на опрос, чтобы оценить качество беседы.

В эксперименте приняли участие более 1500 человек, в результате чего участники приняли в общей сложности 2742 перефразировки, сгенерированные искусственным интеллектом. Полученные результаты выявили многообещающую трансформацию в динамике онлайн-взаимодействий. Партнеры по чату людей, которые внедрили одно или несколько предложений по перефразированию с помощью искусственного интеллекта, сообщили о значительно более высоком качестве разговора и, что примечательно, проявили большую готовность выслушать точку зрения своего политического оппонента.

«Мы обнаружили, что чем чаще использовались перефразировки, тем больше вероятность того, что участники почувствуют, что разговор не вызывает разногласий и что они чувствуют себя услышанными и понятыми», — сказал профессор компьютерных наук BYU Дэвид Уингейт, соавтор исследования, который помогает получить степень BYU в области компьютерных наук с помощью акцент на машинном обучении этой осенью.

Важно отметить, что перефразирование с помощью искусственного интеллекта не изменило содержание бесед и не изменило точки зрения участников, сказал Уингейт, который отметил, что помощь в чате с помощью искусственного интеллекта сильно отличается от убедительного ИИ, который опасен и чреват с этической точки зрения. «Но помогать людям вести продуктивные и вежливые беседы — это один из положительных результатов применения искусственного интеллекта».

Результаты исследования имеют далеко идущие последствия, поскольку оно предлагает масштабируемое решение для борьбы с токсичной онлайн-культурой, которая уже много лет преследует Интернет. В отличие от традиционных методов, таких как профессиональные тренинги под руководством опытных модераторов, которые ограничены по масштабу и доступности, вмешательство искусственного интеллекта может быть широко реализовано по различным цифровым каналам.

При правильном использовании возможностей искусственного интеллекта онлайн-платформы могут быть преобразованы в конструктивные форумы, где люди с разным опытом и мнениями собираются вместе, чтобы обсудить текущие проблемы с сочувствием и уважением. В конечном счете, это исследование показывает, что технология искусственного интеллекта, при продуманной интеграции, может сыграть ключевую роль в формировании более позитивного онлайн-ландшафта.