Эта опция сбросит домашнюю страницу этого сайта. Восстановление любых закрытых виджетов или категорий.

Сбросить

Зростання ИИ може розширити загрозу безпеці, якщо немає дій, доповідь попереджає


Опубликованно 13.06.2018 01:30

Зростання ИИ може розширити загрозу безпеці, якщо немає дій, доповідь попереджає

Поширення безглузде технологій штучного інтелекту може дозволити появі нових видів кіберзлочинів, політичні потрясіння і навіть фізичні атаки протягом п\'яти років, група з 26 експертів з різних країн світу попереджають.

У новій доповіді, академічний, промисловості та некомерційного сектора експерти, описують ІІ як "подвійного використання технології" з потенційними військового та цивільного призначення, схоже атомної енергії, вибухових речовин і знарядь злому.

"Як можливості ІІ став більш потужним і масштабним, ми очікуємо, що зростання використання систем ШІ призведе до розширення існуючих загроз, впровадження нових загроз і зміна типового характеру загрози", - наголошується в повідомленні.

Вони стверджують, що дослідники повинні враховувати потенційне зловживання ІІ набагато раніше, у процесі навчання, ніж вони роблять в даний час і зусилля, щоб створити відповідну нормативно-правову базу для запобігання шкідливого використання ІІ.

Якщо рад не буде, автори доповіді попереджають, ІІ, швидше за все, революціонізувати влади погані актори загрожувати повсякденному житті. У цифровій сфері, кажуть, AI може бути використаний, щоб знизити бар\'єр входу для проведення руйнівних атак хакерів. Ця технологія дозволить автоматизувати виявлення критичних помилок програмного забезпечення або швидко вибирати потенційних жертв фінансових злочинів. Він навіть може бути використаний для зловживання Facebook-стиль алгоритмічній профілювання для створення "соціальної інженерії" атак розроблена, щоб максимізувати ймовірність того, що користувач буде натиснути посилання на шкідливу або завантажити заражене додаток.

Зростаючий вплив ШІ на фізичний світ, значить, це також уразливі для зловживання ІІ. Найбільш широко обговорюваних приклад припускає weaponising "роїв безпілотників", пристосовуючи їх маленькими вибухових речовин і технологію безпілотного водіння, а потім встановити їх вільно проводити безвісно вбивств так званих "slaughterbots".

\'ШІ буде вкрай вигідно, і вже є в сфері кібербезпеки, - говорить Дмитро Альперович, співзасновник фірми по забезпеченню інформаційної безпеки CrowdStrike. Фотографія: Роб Engelaar/ЕПК

Політичні потрясіння настільки ж правдоподібно, в доповіді стверджується. Держави може прийняти рішення про використання автоматизованих платформ спостереження для придушення інакомислення – як це вже робиться в Китаї, особливо для Уйгурського народу на північно-заході країни. Інші можуть створити автоматизовану, гіпер-персоналізовані кампанії дезінформації", орієнтації кожного окремого виборця з брехнею, щоб впливати на їх поведінку. Або ІІ може просто запустити "відмова від інформаційних атак", виробляючи стільки підробку новини, достовірну інформацію стає практично неможливо розрізнити від шуму.

Шон - h?igeartaigh Кембриджського університету центр з вивчення екзистенційних ризиків, один з авторів доповіді, сказав: “Ми живемо у світі, який може стати загрожує повсякденних небезпек, від неправомірного використання ШІ і ми повинні взяти від проблеми – тому що вони представляють реальну небезпеку. Є вибір, який ми повинні зробити зараз, і наш доповідь-це заклик до дії для урядів, установ і осіб по всьому світу.

“Протягом багатьох десятиліть ажіотаж перевершив то, з точки зору AI і машинного навчання. Більше немає. Цей доповідь ... свідчить про широких підходів, які можуть допомогти: наприклад, як розробляти програмне і апаратне забезпечення, щоб зробити його менш уразливими для атак – і які закони і міжнародні правила можуть працювати в тандемі з цим".

Не всі впевнені в тому, що AI проте являє такого ризику. Дмитро Альперович, співзасновник інформаційної безпеки фірми CrowdStrike, сказав: “я не вважають, що небо впаде, і відкриє земля.

“Там будуть поліпшення з обох сторін; це триває гонка озброєнь. ІІ буде надзвичайно корисним, і вже є у сфері кібербезпеки. Це також буде корисно для злочинців. Це ще належить з\'ясувати, з якого боку буде користі від нього більше.

"Мій прогноз такий-це буде більш вигідна для оборонної боку, де AI світить в масовий збір матеріалу, який застосовується більше для захисту, ніж злочин."

У доповіді визнається, що AI-це найкраща захист проти ШІ, але стверджує, що "Ай-заснована захист не панацея, особливо, коли ми дивимося за межі цифровий сфери".

"Більше роботи повинно бути зроблено в розумінні правильний баланс відкритості в AI, вдосконалюючи технічні заходи для формальної перевірки надійності систем і забезпечення того, щоб політики розвинених менш АІ-переплітаються світ, адаптуватися в новому світі, який ми створюємо", - пишуть автори. Елон Маск веде 116 експертів, які закликають до прямого заборони роботів-вбивць


banner14

Категория: Наука и техника

Зростання ИИ може розширити загрозу безпеці, якщо немає дій, доповідь попереджає


Написать комментарий

Оставлять комментарии могут только зарегистрированные пользователи.