Нейромережа ChatGPT на основі штучного інтелекту, та інші подібні моделі й чат-боти можуть нести в собі небезпеку, цілком порівнянну з ядерною зброєю.Якщо людині не вдасться повноцінно контролювати їхню діяльність, то вони й самі в майбутньому зможуть створити досконалішу модель штучного інтелекту.
Таку думку озвучив письменник та історик Юваль Ной Харарі у своїй статті для видання
The Economist.
Фахівець при цьому нагадав, що ШІ та нейромережі здатні самостійно розвиватися без людського контролю за цим процесом.
“Якщо ядерна бомба сама по собі не здатна винайти потужнішу і більш руйнівну зброю, то штучний інтелект потенційно може розробити потужнішу свою копію без відповідних обмежень”, – попереджає Харарі.
Водночас, писати наголошує, що сучасні розробки в галузі ШІ обов’язково мають використовуватися винятково для благих цілей, наприклад, для пошуку ліків від онкології або розв’язання глобальних екологічних проблем.
Також, автор припускає, що в майбутньому нейромережі почнуть активно використовувати для створення фейкових новин або політичного контенту, що також може нести в собі певну небезпеку з погляду стабільного і мирного існування світової спільноти.