У відкритому листі на сайті Future of Life Institute (FOLI) науковці провідних інститутів світу, керівники високотехнологічних підприємств, відомі розробники в галузі IT та штучного інтелекту (AI), а також всесвітньо відомі історики і філософи (наразі більше 2 600 підписів) закликали всі лабораторії AI негайно призупинити, принаймні, на 6 місяців навчання систем, потужніших за GPT-4.

Посилаючись на Принципи штучного інтелекту Asilomar, де зазначено, що «Метою досліджень штучного інтелекту має бути створення не ненаправленого інтелекту, а корисного інтелекту», автори листа застерігають, що «розширений штучний інтелект може представляти глибоку зміну в історії життя на Землі, і його слід планувати та керувати відповідною ретельністю та ресурсами . На жаль, такого рівня планування та управління не існує, навіть незважаючи на те, що останні місяці лабораторії штучного інтелекту вийшли з-під контролю за розробкою та розгортанням все більш потужних цифрових розумів, яких ніхто, навіть їхні творці, не можуть зрозуміти, прогнозувати або надійно контролювати».

Наразі зростає занепокоєння щодо необхідності автоматизувати всі роботи, включно з тими, які виконуються людьми і розвивають творчий людський інтелект. «Чи повинні  ми розвивати нелюдські уми, які з часом можуть перевершити, перехитрити, зробити нас відсталими та замінити нас», – постає питання, на яке людство повинно дати відповідь.

Автори листа застерігають про ризики втрати контролю над нашою цивілізацією, отож  «Такі рішення не можна делегувати невибраним технічним керівникам. Потужні системи штучного інтелекту слід розробляти лише тоді, коли ми будемо впевнені, що їхній ефект буде позитивним, а ризики – керованими. Ця впевненість має бути добре виправданою та збільшуватися разом із величиною потенційних ефектів системи».

В листі пропонується як мінімум, створити «нові та спроможні регуляторні органи, які займаються AI; нагляд і відстеження високопродуктивних систем штучного інтелекту та великих обчислювальних можливостей». Також наголошується на необхідності запровадити ряд заходів, які допоможуть відрізняти  вироби, зроблені штучним інтелектом від продуктів, створених творчістю людини. Запобігти головним ризикам щодо створення інформаційних каналів, потенційно заповнених «пропагандою та неправдою», та автоматизації усіх можливостей працевлаштування. Створити законодавчі норми і правила, які передбачатимуть відповідальність за шкоду, заподіяну AI, та надійне державне фінансування технічних досліджень безпеки, а також ресурсне забезпечення установ для подолання форс-мажорних обставин, спричинених штучним інтелектом.

Це може бути цікаво:  Bitcoin: ведмежий чи бичачий

Наука розвиває реальність, проте етика є базисом розвитку людини. На еволюційному шляху вона завжди була шансом на виживання.

  • bitcoinBitcoin (BTC) $ 99,137.00
  • ethereumEthereum (ETH) $ 3,310.42
  • tetherTether (USDT) $ 1.00
  • solanaSolana (SOL) $ 255.61
  • bnbBNB (BNB) $ 624.05
  • xrpXRP (XRP) $ 1.47
  • dogecoinDogecoin (DOGE) $ 0.409217
  • usd-coinUSDC (USDC) $ 0.999370
  • cardanoCardano (ADA) $ 0.972427
  • staked-etherLido Staked Ether (STETH) $ 3,309.40
14 15 16 17 18 19 20 21 22 23