Microsoft, Google та OpenAI беруться за спільну розробку та контроль ШІ

Великі організації усвідомлюють проблеми, пов'язані з ШІ, що швидко розвивається. Відповідно до проєкту документа, технологічні фірми повинні погодити вісім запропонованих заходів щодо безпеки, захисту та соціальної відповідальності. Ці заходи включають надання незалежним експертам можливості тестувати моделі ШІ на предмет потенційно поганої поведінки, інвестування в кібербезпеку та заохочення третіх осіб до виявлення вразливостей у системі безпеки.
Щоб усунути соціальні ризики, включаючи упередженість та неналежне використання, компанії зосередяться на ретельному вивченні наслідків. Вони також будуть ділитися інформацією про довіру та безпеку з іншими компаніями та урядом, сприяючи спільному підходу до відповідальної розробки ШІ.
Крім того, вони планують наносити водяні знаки на аудіо- та візуальний контент, створений штучним інтелектом, щоб запобігти неправильному використанню або дезінформації. Компанії зобов'язуються використовувати найсучасніші системи штучного інтелекту, відомі як прикордонні моделі, на вирішення серйозних проблем, із якими стикається суспільство.
Добровільний характер цієї угоди ясно демонструє труднощі, із якими стикаються законодавці, намагаючись не відставати від швидких темпів розвитку штучного інтелекту.
Джерело: gizmochina
AI




