Технології

«Потрібно боятися не ШІ, а людей, які його роблять»: експерти поділилися думкою про штучний інтелект

Група відомих фахівців з етики штучного інтелекту ( ШІ ) написала у відповідь лист на пропозицію призупинити розробку моделей ШІ, таких як GPT-4. Вони вважають, що такий крок не має сенсу і не вирішує реальних проблем, пов’язаних з використанням ШІ.

Раніше тисячі людей, включаючи Стіва Возняка і Ілона Маска, підписали відкритий лист, в якому висловили свою стурбованість можливими загрозами від неконтрольованого ШІ. Вони запропонували ввести мораторій на розробку таких систем до тих пір, поки не будуть створені механізми їх регулювання .

Однак фахівці з етики ШІ заперечили цю пропозицію. Вони стверджують, що небезпека виходить не від гіпотетичного сильного майбутнього штучного інтелекту, а від того, як алгоритми використовуються сьогодні. Фахівці вказують на такі проблеми, як експлуатація робітників, крадіжка даних, концентрація влади в меншій кількості рук і шкоду для навколишнього середовища.

На думку експертів, потрібно не припиняти розробку ШІ, а контролювати її. Вони закликають до прозорості і регулювання з боку держави і суспільства. Вони також наголошують на необхідності участі різноманітних груп людей в процесі створення і оцінки ШІ.

Ви не повинні боятися ШІ. Ви повинні боятися людей, які його будують

говорить Джессіка Метью співзасновиця Uncharted Power

Джерело: TechCrunch

Залишити відповідь

Back to top button