Чи ШІ є загрозою ядерного рівня? Чому всі поля штучного інтелекту розвиваються одночасно, тупі фото каламбури – Cointelegraph Magazine

Так само, як ми не дозволяємо будь-кому будувати літак і літати пасажирами, або проектувати та випускати ліки, чому ми повинні дозволяти випускати моделі ШІ без належного тестування та ліцензування?

Останніми тижнями так стверджує все більше експертів і політиків.

Сполучене Королівство проводить глобальний саміт ШІ безпеки восени, і опитування свідчать про те, що близько 60% громадськості підтримують правила, здається, що нові огорожі стають більш імовірними, ніж ні.

Одним із особливо популярних мемів є порівняння технології штучного інтелекту з такою екзистенційною загрозою, як ядерна зброя, як у нещодавньому попередженні з 23 слів, надісланому Центром безпеки штучного інтелекту, яке підписали сотні вчених:

«Пом’якшення ризику вимирання від штучного інтелекту повинно бути глобальним пріоритетом поряд з іншими ризиками суспільного масштабу, такими як пандемії та ядерна війна».

Розширюючи цю метафору, генеральний директор OpenAI Сем Олтман наполягає на створенні глобального органу, такого як Міжнародне агентство з атомної енергії, для нагляду за технологіями.

«Ми говоримо про МАГАТЕ як про модель, за якою світ сказав: «Добре, дуже небезпечна технологія, давайте всі поставимо (встановимо) деякі огорожі», — сказав він цього тижня в Індії.

Лібертаріанці стверджують, що перебільшення загрози та заклик до регулювання — це лише хитрість провідних компаній штучного інтелекту, щоб а) нав’язати авторитарний контроль і б) задушити конкуренцію за допомогою регулювання.



Професор інформатики з Прінстона Арвінд Нараянан попередив: «Ми повинні остерігатися прометеїв, які хочуть отримати прибуток від того, щоб принести людям вогонь, і отримати довіру як пожежників».

Netscape і співзасновник a16z Марк Андріссен випустив серію нариси цього тижня про своє технологічне утопічне бачення ШІ. Він порівняв AI Doomers з «апокаліптичним культом» і стверджував, що AI має не більше шансів знищити людство, ніж тостер, оскільки: «ШІ не хоче, він не має цілей — він не хоче вбивати вас, тому що це не живий».

Це може бути правдою, а може й ні, але, знову ж таки, ми маємо лише розпливчасте розуміння того, що відбувається всередині чорного ящика «розумних процесів» ШІ. Але, як визнає сам Андріссен, планета сповнена розгублених людей, які тепер можуть попросити штучний інтелект розробити біологічну зброю, здійснити кібератаку чи маніпулювати виборами. Отже, це може бути небезпечно в чужих руках, навіть якщо ми уникаємо Skynet/Термінатор сценарій.

Ядерне порівняння, ймовірно, досить повчальне, оскільки в 1940-х роках люди дуже захопилися цілком реальними можливостями ядерної технології, які призводять до кінця світу. Деякі члени команди Манхеттенського проекту були настільки стурбовані тим, що бомба може спрацювати ланцюгова реакціязапалити атмосферу та спалити все життя на Землі, яке вони підштовхнули до припинення проекту.

Після того, як бомбу скинули, Альберт Ейнштейн настільки переконався в масштабі загрози, що наполягав на негайному створенні світовий уряд з єдиним контролем арсеналу.

Читайте також


особливості

Як це насправді – використовувати біткойни в Сальвадорі


особливості

Робота з Hydra: надання послуг децентралізованим організаціям

Світовий уряд не відбувся, але міжнародна спільнота сприйняла загрозу настільки серйозно, що людям вдалося не підірвати себе за 80 з гаком років відтоді. Країни підписали угоди лише про підземне випробування ядерної зброї, щоб обмежити радіоактивні опади та встановити режими перевірок, і тепер лише дев’ять країн мають ядерну зброю.

У своєму подкасті про наслідки ШІ для суспільства, Дилема ШІТрістан Гарріс і Аза Раскін виступають за безпечне розгортання ретельно перевірених моделей ШІ.

«Я вважаю це публічне впровадження ШІ наземним тестуванням ШІ. Нам не потрібно цього робити», — сперечався Гарріс.

«Ми можемо припустити, що системи, які мають потужності, про які інженери навіть не знають, які вони будуть, що вони не обов’язково безпечні, доки не буде доведено протилежне. Ми не просто вставляємо їх у такі продукти, як Snapchat, і ми можемо покласти відповідальність на розробників ШІ, а не на громадян, щоб довести, чому вони вважають, що це (не) небезпечно».

Читайте також: Встаньте для робота-судді — штучний інтелект і блокчейн можуть змінити зал суду

Джин вийшов із пляшки

Звичайно, регулювання штучного інтелекту може бути схоже на заборону біткойнів: добре в теорії, неможливо на практиці. Ядерна зброя — це вузькоспеціалізована технологія, яку розуміють лише кілька вчених у всьому світі, і для неї потрібен збагачений уран, який неймовірно важко отримати. Тим часом ШІ з відкритим кодом доступний у вільному доступі, і ви навіть можете завантажити особисту модель ШІ та запустити її на своєму ноутбуці.

Експерт зі штучного інтелекту Брайан Ремеле каже що він знає про 450 загальнодоступних моделей штучного інтелекту з відкритим вихідним кодом і «більше створюється майже щогодини. Приватні моделі знаходяться в 100-х роках 1000-х».

Roemmele навіть створює систему, яка дозволить будь-якому старому комп’ютеру з комутованим модемом підключатися до локального ШІ.

Об’єднані Арабські Емірати також щойно випустили свою модель ШІ з відкритим кодом великої мови під назвою Falcon 40B модель без гонорарів за комерційні та дослідницькі роботи. Він стверджує, що «перевершує таких конкурентів, як LLaMA від Meta та StableLM від Stability AI».

Існує навіть щойно випущений генератор відео ШІ з відкритим вихідним кодом під назвою Potat 1, заснований на дослідженні Runway.

Причина, чому всі поля AI просунулися одночасно

За останній рік чи близько того ми спостерігали неймовірний вибух можливостей ШІ за всіма напрямками, AI текст у відео і створення пісень до чарівного редагування фотографій, клонування голосу та глибоких підробок одним клацанням миші. Але чому всі ці досягнення відбулися одночасно в багатьох різних сферах?

Математик і співзасновник проекту Earth Species Project Аза Раскін дала захоплююче пояснення цього англійською мовою в Дилема ШІпідкреслюючи прорив, який стався завдяки моделі машинного навчання Transformer.

Читайте також


особливості

Знайомтесь, Дмитро: співзасновник творця Ethereum Віталік Бутерін


особливості

Біткойн знаходиться на курсі зіткнення з обіцянками «Net Zero».

«Такого роду розуміння полягало в тому, що ви можете почати розглядати абсолютно все як мову», — пояснив він. «Отже, ви можете взяти, наприклад, зображення. Ви можете просто розглядати це як своєрідну мову, це просто набір фрагментів зображення, які ви можете розташувати лінійно, а потім просто передбачити, що буде далі».

ChatGPT часто порівнюють з машиною, яка просто передбачає найімовірніше наступне слово, тож ви можете побачити можливості генерації наступного «слова», якщо все цифрове можна перетворити на мову.

«Отже, зображення можна розглядати як мову, а звук, який ви розбиваєте на маленькі мікрофонні назви, передбачте, що з них буде наступним, і це стане мовою. Дані фМРТ стають своєрідною мовою, а ДНК — просто іншою мовою. І раптом будь-який прогрес у будь-якій частині світу ШІ став прогресом у кожній частині світу ШІ. Ви можете просто скопіювати-вставити, і ви побачите, як тепер прогрес одразу множиться на весь набір полів».

Це і не схоже Чорне дзеркало

Багато людей помітили, що нещодавні досягнення в галузі штучного інтелекту здаються чимось незрозумілим Чорне дзеркало. Але творець Чарлі Брукер, схоже, вважає, що його уява значно вражаюча, ніж реальність, сказав Empire Magazine, що попросив ChatGPT написати епізод серіалу Чорне дзеркало і результат був “лайно”.

«Я трохи побавився з ChatGPT, — сказав Брукер. «Перше, що я зробив, це ввів «генерувати епізод Black Mirror», і з’явилося щось, що, на перший погляд, читається правдоподібно, але на другий погляд — лайно». За словами Брукер, штучний інтелект просто відригнув і змішав різні сюжети епізодів у повний безлад.

«Якщо ви копнете трохи глибше, ви скажете: «О, тут насправді немає жодної оригінальної думки», — сказав він.

Чорне дзеркало
«Чорне дзеркало» краще передбачало розвиток ШІ, ніж штучний інтелект писав сценарії «Чорного дзеркала» (Netflix)

AI картинки тижня

Однією з приємних переваг програм генерації зображень для синтезу мовлення зі штучним інтелектом є те, що вони можуть перетворювати одноразові каламбури на дорогі зображення, які не потрудився б створити жоден графічний дизайнер. Отже, ось чудеса світу, написані штучним інтелектом з помилками (люб’язно надано redditor mossymayn).

Відео тижня

Дослідники з Кембриджського університету продемонстрували вісім простих рецептів салатів роботі-кухарю зі штучним інтелектом, який потім зміг сам приготувати салати та самостійно придумати дев’ятий рецепт салату.

Ендрю Фентон

Ендрю Фентон

Ендрю Фентон, який живе в Мельбурні, є журналістом і редактором, який висвітлює криптовалюту та блокчейн. Він працював національним автором розважальних програм для News Corp Australia, на SA Weekend як кіножурналіст і в The Melbourne Weekly.



Source link

Поділіться своєю любов'ю