Перейти до основного вмісту

Співзасновник Skype назвав головні загрози людству

30 грудня, 22:50

Один з розробників Skype Яан Таллінн визначив, що, на його думку, є трьома найбільшими загрозами існуванню людства в цьому столітті.

Про це повідомляє видання Techno.NV.

За його словами, це штучний інтелект, синтетична біологія і так звані «невідомі змінні», при цьому «зміна клімату не становитиме серйозної небезпеки».

Синтетична біологія — це проєктування і створення нових біологічних частин, пристроїв і систем, тоді як невідомі змінні - це «речі, про які ми, можливо, в принципі не можемо зараз знати», згідно з Таллінном.

Естонський програміст, який допомагав створити платформу для обміну файлами Kazaa в 90-х і службу відеодзвінків Skype в 00-х, в останні роки все більше турбується саме про штучний інтелект.

«Зміна клімату не стане ризиком для існування, якщо не буде неконтрольованого сценарію», — сказав він через Skype.

З трьох загроз, які найбільше турбують Таллінна, він зосереджений на штучному інтелекті, і він витрачає мільйони доларів, щоб спробувати забезпечити безпечний розвиток технології. Це включає в себе ранні інвестиції в лабораторії штучного інтелекту, такі як DeepMind (частково для того, щоб він міг стежити за тим, що вони роблять) і фінансування досліджень безпеки ШІ в таких університетах, як Оксфорд і Кембридж.

Посилаючись на книгу оксфордського професора Тобі Орда, Таллінн сказав, що ймовірність того, що люди не виживуть в цьому столітті, становить один з шести. Згідно з книгою, однією з найбільших потенційних загроз в найближчому майбутньому є саме ШІ, в той час як ймовірність того, що зміна клімату призведе до вимирання людства, становить менше 1%.

Коли справа доходить до штучного інтелекту, ніхто не знає, наскільки розумними стануть машини, і спроби вгадати, наскільки просунутим буде ШІ в наступні 10, 20 або 100 років, практично неможливо. Спроби передбачити майбутнє ШІ ще більше ускладнюються тим фактом, що системи ШІ починають створювати інші системи ШІ без участі людини.

«Є один дуже важливий параметр при спробі передбачити ШІ і майбутнє. Наскільки сильно і як саме розвиток ШІ впливатиме на розробку ШІ? Ми знаємо, що ШІ в даний час використовуються для пошуку архітектур ШІ», — сказав Таллінн.

Якщо з’ясується, що ШІ не дуже хороший в створенні інших шІ, тоді нам не потрібно занадто турбуватися, оскільки буде час для «розосередження і розгортання» можливостей, сказав Таллінн. Однак, якщо ШІ вміє створювати інші ШІ то «дуже виправдано турбуватися … про те, що станеться далі», — сказав він.

Таллінн пояснив, що є два основні сценарії, які розглядають дослідники безпеки штучного інтелекту.

Перший — це нещасний випадок в лабораторії, коли дослідницька група залишає систему ШІ, щоб тренуватися на деяких комп’ютерних серверах ввечері, а «вранці світу більше немає». У другому випадку дослідницька група створює прототипну технологію, яка потім приймається і застосовується в різних областях, «де вони в кінцевому підсумку призводять до небажаних наслідків».

Таллінн сказав, що він більше зосереджений на першому, оскільки менше людей думають про такий сценарій.

За словами Таллінна, деякі компанії ставляться до безпеки штучного інтелекту більш серйозно, ніж інші. DeepMind, наприклад, підтримує регулярні контакти з дослідниками безпеки ШІ в таких місцях, як Інститут майбутнього людства в Оксфорді. У ньому також працюють десятки людей, які зосереджені на безпеки ШІ.

На іншому кінці шкали, за словами Таллінна, такі корпоративні центри, як Google Brain і Facebook AI Research, менше залучені в співтовариство з безпеки штучного інтелекту.

На думку генерального директора Tesla Ілона Маска, штучний інтелект може бути небезпечний для людства.

«Ми повинні бути стурбовані тим, куди рухається штучний інтелект. Люди, які, як я вважаю, помиляються щодо ШІ, — це люди, які дуже розумні і не можуть уявити, що комп’ютер може бути набагато розумнішими їх. Це недолік їх логіки. Вони просто тупіше, ніж вони думають», — сказав Маск.

Маск раніше заявляв, що він вважає, що ШІ представляє набагато більшу загрозу людству, ніж ядерна зброя, і закликав до нормативних актів для моніторингу розвитку технології штучного інтелекту.

Delimiter 468x90 ad place

Підписуйтесь на свіжі новини:

Газета "День"
читати