850 експертів закликали зупинити суперінтелект: що це означає
Понад 850 провідних громадських діячів, включаючи лідерів у сфері штучного інтелекту (ШІ), підтримали відкритий лист, який закликає уповільнити розробку "суперінтелекту" - форми ШІ, що перевершує людський інтелект.
У листі також висловили свою підтримку провідні вчені в галузі комп'ютерних наук, зокрема лауреати Нобелівської премії Джефрі Хінтон та Йошуа Бенджіо, а також Стів Возняк і Річард Бренсон.
Суперінтелект перевершує людські когнітивні здібності. Деякі експерти побоюються, що створення такого ШІ може призвести до втрати контролю над системами, - зазначено у листі.
Автори листа закликають ввести "заборону на розробку суперінтелекту, яка не може бути знята, поки не буде досягнуто широкого наукового консенсусу щодо безпечності цього процесу і не буде отримано широку підтримку суспільства".
Різні погляди на розвиток ШІ
Світові лідери розглядають гонку в розробці ШІ як критично важливу для національної безпеки та прогресу в різних галузях, таких як охорона здоров'я, бізнес і технології. Але деякі експерти, зокрема генеральний директор OpenAI Сем Альтман, висловлюють стурбованість щодо цього процесу, вважаючи, що розробка суперінтелекту має бути обґрунтована безпекою.
Інший підхід до майбутнього ШІ виражається через поняття загального штучного інтелекту (AGI). Прихильники AGI, зокрема Сем Альтман, вважають, що такий ШІ може сприяти розвитку суспільства, а не загрожувати йому. Також варто зазначити, що штучний інтелект вже впливає на когнітивні процеси підлітків, змушуючи їх швидше мислити, хоча це може вплинути на глибину аналізу інформації.
Учені та лідери у галузі штучного інтелекту закликають уповільнити розробку "суперінтелекту", бо створення такого рівня штучного інтелекту може призвести до втрати контролю та загрози безпеці.
Читайте також

