Ілон Маск закликав призупинити великі експерименти зі штучним інтелектом

У листі стверджується, що лабораторії замкнулися на гонці з розробки та застосування систем машинного навчання, яка «виходить з-під контролю». Ніхто, навіть їхні творці, не зможуть зрозуміти, прогнозувати чи впевнено контролювати такі системи.
Ось що пропонують автори:
Ми закликаємо всі лабораторії, що працюють зі штучним інтелектом, негайно призупинити як мінімум на 6 місяців тренування систем штучного інтелекту потужнішим за GPT-4. Припинення діяльності має бути публічним і підтвердженим, і брати у ньому повинні всі ключові гравці. Якщо найближчим часом стати на паузу не вийде, у справу мають вступити уряди країн та запровадити мораторій.
З відкритого листа Pause Giant AI Experiments: An Open Letter
Також у листі виражається незадоволеність позицією «випустимо як є, полагодимо потім» при розробці нейромереж (згадати хоча б Bard від Google). Навіть OpenAI вже висловлювалася про потенційну необхідність перевірки безпеки ШІ у майбутньому. Автори листа вважають, що це майбутнє вже настало.
Розробникам ШІ та незалежним експертам варто використовувати цю перерву, щоб спільно розробити та впровадити єдині протоколи безпеки для складних ШІ-систем, відповідність яким перевірятиметься зовнішніми незалежними експертами. Такі протоколи допоможуть переконатися, що системи є достатньо безпечними для використання.
З відкритого листа Pause Giant AI Experiments: An Open Letter
Повний текст листа можна прочитати тут.
Джерело: futureoflife
Різне




