Перейти до основного вмісту
На сайті проводяться технічні роботи. Вибачте за незручності.

Повстання машин скасовується

Або Як невдалий експеримент Facebook зі штучним інтелектом актуалізував дискусію про співіснування роботів та людей
04 серпня, 11:27
ФОТО РУСЛАНА КАНЮКИ / «День»

Днями ЗМІ поширили інформацію про те, що Facebook закрила одну зі своїх систем штучного інтелекту, яка начебто створила власну, незрозумілу мову для спілкування між ботами.

Як повідомляло видання Tech Times, штучний інтелект створив власну мову для того, щоб швидше та простіше обмінюватися інформацією. Тож технологи компанії закрили частину системи і перепрограмували інших ботів, щоб вони спілкувалися лише англійською мовою.

Самі ж розробники  Facebook розповідали про своє дослідження ще в червні. Інженери Лабораторії дослідження штучного інтелекту Facebook (FAIR) працювали над тим, щоб створити ботів, які здатні не просто забронювати столик чи провести коротку розмову із користувачем, а проводили переговори і досягали найбільшого результату. На першому етапі дослідження боти спілкувалися із людьми, потім же інженери вирішили звести в діалог два боти. Це призвело до того, що боти почали спілкуватися незрозумілою мовою, видаючи у відповідь один одному набір беззмістовних фраз.

АЛГОРИТМ ЗАМІСТЬ СВІДОМОСТІ

Як пояснює віце-президент GlobalLogic Україна Андрій Яворський, на сьогоднішньому етапі розвитку технології ШІ (штучного інтелекту або нейронні сітки) не становлять загрози для людей. Адже це програма, яка, аналізуючи велику кількість даних, прописує сценарії розвитку ситуації за різних умов. «Боти Facebook аналізували велику кількість переговорів, які перед цим були проведені людьми, і вираховували, за допомогою яких формулювань було досягнуто найбільшого результату», — пояснює він.

Особливість такої системи полягає в тому, каже Яворський, що під час розмови із людиною бот відповідав виходячи із того, що йому було сказано. Таким чином, він аналізував, який алгоритм є правильним за даної умови (відповіді людини). Коли ж боти почали спілкуватися між собою, то почали використовувати лише набір ключових фраз, які раніше призводили до успіху в переговорах. При цьому вони не зважали на те, що говорить співбесідник (інший бот).  «Те, що сталося між ботами Facebook, ще раз доводить, що вони не розуміли, про що говорять і використовували базові формулювання, які вже засвоїли і намагалися отримати максимальну кількість балів», — говорить віце-президент GlobalLogic.

Він додає, що математичний апарат, який лежить в основі ШІ, був розроблений ще 30 років тому.

Інформацію про нову мову ботів спростовують і міжнародні науковці в галузі ШІ. Дослідник з Georgia Tech Дхрув Батра розкритикував чимало публікацій в ЗМІ, які подали інформацію про результати експерименту FAIR в тривожному тоні. «Незважаючи на те, що ідеї агентів AI, що вигадують власну мову, можуть здаватися тривожними/несподіваними для людей поза полем, це усталена підгрупа AI, публікаціям про яку вже десятки років», — написав він у своєму Facebook.

«Наразі всі алгоритми, а будь-який ШІ (або як прийнято називати його в колі програмістів — нейронні мережі) створюється людиною і процес повністю контролюється дослідниками, принаймні на етапі створення», — пояснює CEO & Founder в Sincere Tech Рон Фрідман. Учасники проекту Sincere Tech створюють аналітику на основі нейронних мереж, вивчаючи різні біосигнали людини.

На сьогодні нейронна мережа розробників вміє по ЕКГ розпізнавати людину (біометрична ідентифікація), визначати емоційні стани людини. Також команда працює над визначенням таких хвороб, як Альцгеймера і Паркінсона на ранніх стадіях за даними з різних наручних браслетів (Samsung, Apple Watch, Xiaomi Mi Band і т.д).

МИРНЕ СПІВІСНУВАННЯ

Результати експерименту із ботами Facebook в черговий раз актуалізують дискусію про те, як людству співіснувати із технологіями майбутнього і штучним інтелектом. Одна із таких суперечок нещодавно виникла між Ілоном Маском та Марком Цукербергом. Творець Tesla нещодавно заявив, що розвиток штучного інтелекту потрібно регулювати на урядовому рівні. Натомість Марк Цукерберг назвав позицію Маска «безвідповідальною». «Будь-яка технологія може завжди використовуватися для хороших і поганих цілей, і ви повинні бути обережні, коли створюєте її», — зазначив Цукерберг.

На думку Рона Фрідмана, одна із реальних загроз, які на сьогодні створюють ШІ для людства — це масштабна автоматизація виробництв по всьому світі. «Парадокс, бізнес стає ефективнішим з одного боку, але й зростає безробіття. Це дуже філософська дилема, що робити з людьми, чиї професії стають просто непотрібними в сучасному світі», — говорить він.

Всі ж інші загрози будуть залежать від того, з якими намірами технологи будуть розвивати свої розробки на основі ШІ. «Коли ми створюємо новий алгоритм, то тільки ми вирішуємо як він буде працювати. Нейронна мережа — просто вирішує поставлене завдання, і якщо, припустимо стоїть завдання навчити нейронну мережу розуміти якусь мову, то в процесі навчання вона може використовувати допоміжну мову (незрозумілу людині), для вирішення такого завдання. Такий підхід називають ще чорним ящиком, коли ми самі до кінця не розуміємо, що відбувається всередині нашої нейронної мережі», — каже Фрідман.

На думку Андрія Яворського, в майбутньому із розвитком ШІ людям буде складно намагатися контролювати те, що потенційно може стати розумнішим за них. Він пропонує звернути увагу на те, як людям вчитися співіснувати із штучним інтелектом.

«Потрібно їх навчити так, щоб людина мала для них цінність. І поки що на сьогодні немає єдиної стратегії того, як це правильно зробити. Але перш за все, потрібно дати для цих роботів приклад морально-етичної поведінки, яку, на жаль, сьогодні усвідомлюють не всі люди. У нас досі немає єдиного поняття того, що правильно, а що ні. В такому разі постає питання, як технології будуть розуміти ці поняття і які рішення вони приймають. Наприклад, чи скаже робот-лікар пацієнту інформацію, яка може йому зашкодити? Це питання лежить в площині більше філософській, і ми побачимо, як людство буде з цим справлятися», — підcумовує він.

УКРАЇНСЬКИЙ КОНТЕКСТ

Нещодавно український стартап Grammarly залучив 110 млн доларів інвестицій, повідомляло видання AIN. Grammarly — це інтелектуальний онлайн-сервіс перевірки граматики, заснований на технологіях штучного інтелекту. Він підвищує якість письмового спілкування, враховуючи індивідуальний стиль користувача і його комунікативні цілі.

За словами Рона Фрідмана, сьогодні технології, які базуються на технології ШІ, застосовуються в найрізноманітніших галузях — від медицини до юриспруденції.

«Бізнес зрозумів потенціал цієї технології, вона стала доступною як для розробників (з’явилося багато готових рішень, так званих бібліотек або фреймворків), так і для кінцевого користувача це стало дешевше і простіше впровадити», — пояснює він.

А як розповідає Андрій Яворський, на сьогодні українські розробники в галузі розробки ШІ працюють в рівних умовах із закордонним інженерами. «Розробники у всьому світі, зокрема, і в Україні працюють на нейронних сітках. І навіть Google відкриває open sourсe (відкрите програмне забезпечення), який різні програмісти можуть використовувати для своїх потреб. Питання в тому, хто для яких цілей використовує цей ресурс. Наприклад, нещодавно популярним став, наприклад сервіс Teleport (додаток для фарбування волосся на фотографії. — Ред.), який теж базується на технологіях ШІ і вгадує, яку саме частину фотографії потрібно фарбувати», — каже він.

Delimiter 468x90 ad place

Підписуйтесь на свіжі новини:

Газета "День"
читати