«Потрібно боятися не ШІ, а людей, які його роблять»: експерти поділилися думкою про штучний інтелект
Група відомих фахівців з етики штучного інтелекту ( ШІ ) написала у відповідь лист на пропозицію призупинити розробку моделей ШІ, таких як GPT-4. Вони вважають, що такий крок не має сенсу і не вирішує реальних проблем, пов’язаних з використанням ШІ.
Раніше тисячі людей, включаючи Стіва Возняка і Ілона Маска, підписали відкритий лист, в якому висловили свою стурбованість можливими загрозами від неконтрольованого ШІ. Вони запропонували ввести мораторій на розробку таких систем до тих пір, поки не будуть створені механізми їх регулювання .
Однак фахівці з етики ШІ заперечили цю пропозицію. Вони стверджують, що небезпека виходить не від гіпотетичного сильного майбутнього штучного інтелекту, а від того, як алгоритми використовуються сьогодні. Фахівці вказують на такі проблеми, як експлуатація робітників, крадіжка даних, концентрація влади в меншій кількості рук і шкоду для навколишнього середовища.
На думку експертів, потрібно не припиняти розробку ШІ, а контролювати її. Вони закликають до прозорості і регулювання з боку держави і суспільства. Вони також наголошують на необхідності участі різноманітних груп людей в процесі створення і оцінки ШІ.
Ви не повинні боятися ШІ. Ви повинні боятися людей, які його будують
говорить Джессіка Метью співзасновиця Uncharted Power
Джерело: TechCrunch