Маск, Харарі, Возняк та ще тисяча експертів закликали призупинити розробку просунутого ШІ

Маск, Харарі, Возняк та ще тисяча експертів закликали призупинити розробку просунутого ШІ
Більше тисячі експертів, серед яких засновник SpaceX та Tesla Ілон Маск, один з засновників Apple Стів Возняк, ізраїльський історик та футуролог Юваль Ной Харарі та інші, підписали листа, в якому закликали поставити на паузу розробку просунутого штучного інтелекту. Як випливає з листа, вони вважають, що розвиток штучного інтелекту становить небезпеку для розвитку суспільства та людства загалом.

Зокрема, розвиток ШІ може спричинити глибокі зміни в історії життя на Землі, тому його варто розвивати та керувати ним з особливою обережністю.

«На жаль, такого рівня планування та управління не існує, навіть незважаючи на те, що в останні місяці лабораторії штучного інтелекту застрягли в неконтрольованій гонці з розробки та розгортання все більш потужних цифрових умів, які ніхто, навіть їхні творці, не може зрозуміти, спрогнозувати або надійно контролювати», - йдеться у листі.

Експерти також зазначили, що сучасні системи штучного інтелекту вже можуть конкурувати з людьми у загальних завданнях, що порушує низку питань. Наприклад, чи повинні ми дозволити машинам поширювати дезінформацію, чи повинні прагнути повної автоматизації робочих місць, а також розвивати нелюдський інтелект, який у майбутньому може перевершити, перехитрити та замінити людину. За словами експертів, розвивати потужні системи штучного інтелекту можна лише в тому випадку, якщо ми будемо впевнені в тому, що їхній вплив буде позитивним, а всі ризики, які можуть бути принесені, - будуть усуватися.

«Тому ми закликаємо всі лабораторії ШІ негайно призупинити як мінімум на шість місяців навчання систем ШІ більш потужних, ніж GPT-4. Ця пауза повинна бути загальнодоступною та такою, що піддається перевірці, і в ній повинні брати участь усі ключові учасники. Якщо таку паузу не можна запровадити швидко, уряди мають втрутитися та ввести мораторій», - йдеться у листі.

Ця пауза необхідна лабораторіям та незалежним експертам у галузі ШІ для розробки та впровадження протоколів безпеки, дотримання яких контролюватиметься зовнішніми експертами. Ці протоколи повинні гарантувати, що розробка ШІ безпечна.

Експерти вважають, що пауза не заважатиме розвитку ШІ, а дозволить відійти від «бездумних перегонів» до все більш масштабних і непередбачуваних моделей.

Раніше дослідження Goldman Sachs показало, що прорив у розвитку ШІ може призвести до автоматизації чверті роботи, що виконується у США та Єврозоні. Якщо технологія виправдає очікування, вона може призвести до "значного руйнування" ринку праці, автоматизувавши роботу 300 мільйонів працівників, які працюють повний робочий день у великих економіках.


Джерело: https://zn.ua/ukr/TECHNOLOGIES/mask-kharari-voznjak-ta-shche-tisjachi-ekspertiv-zaklikali-prizupiniti-rozrobku-prosunutoho-ii.html

30.03.2023 12:40