Вчені довели, що ШІ навчився маніпулювати людьми – Techsplore

ШІ навчився маніпулювати людьми
ШІ навчився маніпулювати людьми

Застереження щодо негативного впливу генеративного ШІ та чат-ботів на людей

Останнім часом все більшу популярність здобувають генеративне ШІ, чат-боти та інші антропоморфні асистенти. Проте, за даними дослідників з Кембридзького університету, це може створити можливості для маніпуляцій з використанням поведінкових та психологічних даних, зібраних під час повсякденної взаємодії.

Зокрема, штучний інтелект може передбачати та впливати на рішення людей, такі як покупки, політичні вподобання або особисті плани. Для цього системи ШІ використовують довіру та персоналізоване спілкування. Зараз вже існують компанії, які розробляють платформи для визначення та прогнозування намірів користувачів, такі як OpenAI, Meta, Nvidia та Apple.

Проте вчені наголошують на ризиках, пов'язаних з використанням цих технологій без належного регулювання. Принцип "економіка намірів", що створюється за допомогою ШІ, може підірвати основи вільних виборів, незалежної преси та справедливої конкуренції. Компанії, які монетизують людські прагнення та рішення, отримають перевагу. Таке розвиток подій є логічним, але може мати серйозні наслідки.

Великі технологічні компанії вже продають платформи з ознаками цієї тенденції. Наприклад, нова платформа Apple "App Intents" дозволяє прогнозувати дії користувачів. Meta і OpenAI також активно досліджують можливості використання ШІ для аналізу людських бажань і намірів. Тому науковці закликають необхідність підвищення обізнаності суспільства та регулювання таких інструментів, щоб уникнути можливих маніпуляцій та зловживань.

Варто зауважити, що використання таких технологій може мати і позитивний вплив. Але для забезпечення етичного впровадження необхідно відкритий діалог та усвідомлення потенційних загроз суспільством.

Читайте також