Ілон Маск, фахівці зі штучного інтелекту та лідери галузі закликали до шестимісячної паузи у розробці систем, потужніших, ніж нещодавно запущений OpenAI GPT-4

Про це йдеться у відкритому листі, де згадуються потенційні ризики для суспільства та людства, передає DROBRO.

Лист, випущений некомерційним Інститутом майбутнього життя, який підписали понад 1000 осіб, містить заклик призупинити розробку просунутого ШІ доти, доки не будуть розроблені, впроваджені та перевірені незалежними експертами загальні протоколи безпеки для таких проєктів.

“Системи штучного інтелекту з інтелектом, що конкурує з людиною, можуть становити серйозну небезпеку для суспільства та людства, як показали великі дослідження та визнано провідними лабораторіями штучного інтелекту”, – йдеться у листі.

Також там докладно описано потенційні ризики для суспільства та цивілізації з боку конкурентоспроможних систем штучного інтелекту у вигляді економічних та політичних потрясінь, а також міститься заклик до розробників працювати з політиками над управлінням та регулювальними органами.

“Потужні системи штучного інтелекту слід розробляти лише тоді, коли ми впевнені, що їхні ефекти будуть позитивними, а ризики керованими”, – йдеться у листі.

Від admin