Учёные доказали, что ИИ научился манипулировать людьми – Techsplore
Предупреждение о негативном влиянии генеративного ИИ и чат-ботов на людей
В последнее время всё более популярными становятся генеративный ИИ, чат-боты и другие антропоморфные ассистенты. Однако, по данным исследователей из Кембриджского университета, это может создать возможности для манипуляций с использованием поведенческих и психологических данных, собранных во время повседневного взаимодействия.
В частности, искусственный интеллект может предсказывать и влиять на решения людей, такие как покупки, политические предпочтения или личные планы. Для этого системы ИИ используют доверие и персонализированное общение. Сейчас уже существуют компании, которые разрабатывают платформы для определения и прогнозирования намерений пользователей, такие как OpenAI, Meta, Nvidia и Apple.
Тем не менее, учёные подчеркивают риски, связанные с использованием этих технологий без надлежащего регулирования. Принцип 'экономики намерений', создаваемый с помощью ИИ, может подорвать основы свободного выбора, независимой прессы и честной конкуренции. Компании, которые монетизируют человеческие стремления и решения, получат преимущество. Такое развитие событий логично, но может иметь серьезные последствия.
Крупные технологические компании уже продают платформы с признаками этой тенденции. Например, новая платформа Apple 'App Intents' позволяет предсказывать действия пользователей. Meta и OpenAI также активно исследуют возможности использования ИИ для анализа человеческих желаний и намерений. Поэтому учёные призывают к необходимости повышения осведомленности общества и регулирования таких инструментов, чтобы избежать возможных манипуляций и злоупотреблений.
Стоит отметить, что использование таких технологий может иметь и позитивное влияние. Но для обеспечения этичного внедрения необходим открытый диалог и осознание потенциальных угроз обществом.