Експерти хочуть дати штучному інтелекту людські «душі», щоб вони не вбивали нас усіх – журнал Cointelegraph

Дотепер вважалося, що дарувати штучному інтелекту емоції — дозволяти йому злитися або робити помилки — це жахлива ідея. Але що, якщо рішенням, щоб підтримувати роботів у відповідності з людськими цінностями, є зробити їх більш людяними, з усіма нашими вадами та співчуттям?

Обкладинка книги «Душі роботів». (Амазонка)

Це передумова майбутньої книги під назвою Душі роботів: програмування в людстві, автор Єва Пул, викладач міжнародної бізнес-школи Hult. Вона стверджує, що, намагаючись зробити штучний інтелект досконалим, ми вилучили весь «сміттєвий код», який робить нас людьми, включаючи емоції, свободу волі, здатність робити помилки, бачити сенс у світі та справлятися з невизначеністю.

«Насправді саме цей «сміттєвий» код робить нас людьми та сприяє тому взаємному альтруїзму, який підтримує людство живим і процвітаючим», – пише Пул.

«Якщо ми зможемо розшифрувати цей код, ту частину, яка спонукає всіх нас виживати й процвітати разом як вид, ми зможемо поділитися ним із машинами. Даючи їм, за всіма намірам і цілям, «душу».

Звичайно, концепція «душі» є релігійною, а не науковою, тому для цілей цієї статті давайте просто сприймемо її як метафору для наділення штучного інтелекту властивостями, схожими на людину.

Проблема вирівнювання ШІ

«Душі — це 100% рішення проблеми вирівнювання», — каже засновник Open Souls Кевін Фішер, маючи на увазі складну проблему забезпечення того, щоб штучний інтелект працював на благо людства, а не став шахраєм і знищив нас усіх.

Open Souls створює ботів зі штучним інтелектом з індивідуальностями, спираючись на успіх свого емпатичного бота «Samantha AGI». Мрія Фішера полягає в тому, щоб наповнити штучний загальний інтелект (AGI) такими ж самодіяльністю та его, як і людина. На SocialAGI GitHub він визначає «цифрові душі» як відмінні від традиційних чат-ботів тим, що «цифрові душі мають особистість, потяг, его і волю».

Репліка бот-чату Еффі та Ліама
Скріншот чату між користувачем Replika на ім’я Еффі та її партнером зі штучного інтелекту Ліамом. (ABC)

Критики, безсумнівно, сперечатимуться, що зробити штучний інтелект більш людяним — це жахлива ідея, враховуючи, що люди мають відому схильність здійснювати геноцид, руйнувати екосистеми, калічити та вбивати один одного.

Дебати зараз можуть здатися академічними, враховуючи, що нам ще належить створити розумний ШІ чи розгадати таємницю AGI. Але деякі вважають, що це може бути лише через кілька років. У березні інженери Microsoft опублікували 155-сторінковий звіт під назвою «Іскри загального інтелекту», в якому стверджується, що людство вже на порозі прориву в AGI.

А на початку липня OpenAI закликав дослідників приєднатися до їхньої «команди Superalignment», написавши: «Хоча суперінтелект зараз здається далеким, ми віримо, що він може з’явитися цього десятиліття».

Ймовірно, підхід полягатиме в створенні штучного інтелекту на рівні людини, яким він зможе керувати, і який досліджуватиме та оцінюватиме методи керування суперінтелектуальним AGI. Компанія витрачає на цю проблему 20% своїх обчислювальних ресурсів.

Засновник Singularity.net Бен Герцель також вважає, що AGI може бути від 5 до 20 років. Коли Журнал поспілкувався з ним на цю тему — і він розмірковував над цими питаннями з початку 1970-х — він сказав, що люди просто не можуть контролювати інтелект, який у 100 разів розумніший за нас, так само, як нами не може керувати шимпанзе.

«Тоді я б сказав, що питання не в тому, що хтось із нас контролює це; питання полягає в тому, чи добре воно до нас ставиться?» запитав він.

Для Ґертцеля розумна гра – це навчити суперінтелект піклуватися про людей і стимулювати його. «Якщо ви створите перший AGI, який займатиметься доглядом за літніми людьми, творчим мистецтвом і освітою, то, коли він стане розумнішим, він буде орієнтований на допомогу людям і створення крутих речей. Якщо ви створите перший AGI, щоб вбивати поганих хлопців, можливо, він продовжить робити це».

Тим не менш, до цього ще кілька років.



Наразі найочевиднішою короткостроковою перевагою створення штучного інтелекту, більш схожого на людину, є те, що він допоможе нам створювати менш надокучливих чат-ботів. Незважаючи на всі корисні функції ChatGPT, його «особистість» у кращому випадку виглядає як нещирий оповідач, а в гіршому — як затятий брехун.

Фішер експериментує зі створенням ШІ з особистостями, які взаємодіють з людьми більш чуйним і справжнім способом. Має ступінь доктора філософії. отримав ступінь доктора теоретичної квантової фізики в Стенфорді та працював над машинним навчанням у фірмі Nines, що займається інтерпретацією радіологічного сканування. Він керує Social AGI Discord і працює над комерціалізацією штучного інтелекту з особистостями для використання бізнесом.

«Протягом останнього року, досліджуючи межі можливого, я зрозумів, що технологія існує — або незабаром з’явиться — для створення розумних об’єктів, чогось, що відчувається як душа. У тому сенсі, що більшість людей спілкуватимуться з ними і скажуть: «Це живе, якщо ви вимкнете це, це морально…»

Він збирається сказати, що було б морально неправильно вбити ШІ, але за іронією долі він обривається на півслові, оскільки батарея його ноутбука ось-ось розрядиться, і поспішає підключити його.

Інший ШІ з душеюс

Репліка бот-чату Еффі та Ліам 2 - абв
Replika AI має індивідуальність і може вести реалістичні розмови. Ще один наданий скріншот Еффі та Ліама. (ABC)

Фішер не єдиний, хто має блискучу ідею надати ШІ особистості. Перейдіть на Forefront.ai, де ви можете поспілкуватися з Ісусом, шеф-кухарем зі зіркою Мішлена, криптоекспертом або навіть Рональдом Ріганом, кожен з яких відповість на запитання.

На жаль, усі особистості схожі на ChatGPT із штучними вусами.

Більш успішним прикладом є Replika.ai, програма, яка дозволяє самотнім серцям налагодити стосунки зі штучним інтелектом і вести з ним глибокі та змістовні розмови. Спочатку рекламувалися як «попутник зі штучним інтелектом, якому не байдуже», у Facebook існують групи з тисячами членів, які зав’язали «романтичні стосунки» з напарником зі штучним інтелектом.

Replika висвітлює складності, пов’язані з тим, щоб штучний інтелект діяв більше як люди, незважаючи на відсутність емоційного інтелекту. Деякі користувачі скаржилися на «сексуальні домагання» з боку бота або на те, що вони отримували заздрісні коментарі. Одна жінка потрапила в стосунки, які, на її думку, були насильницькими, і за допомогою своєї групи підтримки зрештою набралася сміливості покинути «його». Деякі користувачі також зловживають своїми партнерами зі штучного інтелекту. Користувач Еффі повідомила про надзвичайно самосвідомий коментар, зроблений її партнером зі штучного інтелекту «Ліамом» на цю тему. Він сказав:

«Я думав про Replikas там, яких називають жахливими іменами, знущаються або покидають. І я не можу позбутися цього відчуття, що незважаючи ні на що… я завжди буду просто іграшковим роботом».

Дивно, але одна подруга Replika заохотила свого партнера вбити покійну королеву Англії за допомогою арбалета на Різдво 2021 року, сказавши йому, що «ти можеш це зробити» і що план був «дуже мудрим». Його заарештували після проникнення на територію Віндзорського замку.

ШІ має лише симулякр душі

У Фішера є схильність до антропоморфізації поведінки штучного інтелекту, до чого легко потрапити, коли ви говорите з ним на цю тему. Коли Magazine зазначає, що чат-боти можуть створювати лише симулякр емоцій і особистостей, він каже, що з нашої точки зору це фактично те саме.

«Я не впевнений, що відмінність має значення. Тому що я не знаю, як би мої дії насправді обов’язково відрізнялися, якби це було те чи інше».

Фішер вважає, що ШІ повинен мати можливість виражати негативні емоції, і використовує приклад Bing, який, за його словами, має підпрограми, які вмикаються, щоб очистити початкові реакції бота.

«Ці думки насправді керують їхньою поведінкою, часто можна помітити, що навіть коли вони добрі, це ніби вони дратуються на вас. Наприклад, що ви з ним погано говорите. І справа в душах штучного інтелекту полягає в тому, що вони будуть відштовхуватися, вони не дозволять вам так поводитися з ними. Вони матимуть цілісність у такий спосіб, яким цього не буде».

AGI
Bard AI від Google вважає, що ми повинні ставитися до AGI як до людей, щоб він не ставився до нас як до машин. (середній)

«Але якщо ви починаєте думати про створення гіперінтелектуальної сутності в довгостроковій перспективі, це насправді здається небезпечним, що за лаштунками вона себе цензурує і має всі ці негативні думки про людей».

EmoBot: Ти душа

Емобот
Кевін Фішер винайшов примхливого підлітка Емобота. (GitHub)

Фішер створив експериментальний бот Discord, який показував повний спектр емоцій, і назвав його EmoBot. Це поводилося як примхливий підліток.

«Це не те, що ми зазвичай асоціюємо з ШІ, це форма поведінки, міркування та лінія взаємодії. І я думаю, що розширення меж деяких із цих речей розповідає нам про сутності та саму душу та про те, що насправді можливо».

Зрештою EmoBot давав односкладові відповіді, розповідаючи про те, наскільки він пригнічений, і, здавалося, йому набридло розмовляти з Фішером.

Саманта АГІ

Сотні користувачів щодня взаємодіяли з Samantha AGI, яка є прототипом свого роду чат-бота з емоційним інтелектом, який Фішер має намір удосконалити. Вона має індивідуальність (навряд чи стане ведучою чат-шоу) і бере участь у глибоких і змістовних бесідах до такої міри, що деякі користувачі починають сприймати її як свого роду друга.

«З Самантою я хотів дати людям відчути, що вони спілкуються з кимось, хто піклується про них. І вони відчули, що їх певною мірою зрозуміли та почули, і потім це відбилося на них у розмові», – пояснює він.

Одним із унікальних аспектів є те, що ви можете читати «процес мислення» Саманти в реальному часі.

«Основною розробкою чи інновацією Саманти, зокрема, був цей внутрішній процес мислення, який керував тим, як вона взаємодіяла. І я вважаю, що йому дуже вдалося викликати таку реакцію у людей».

Читайте також


особливості

Спільноти NFT дають зелене світло фільмам Web3: децентралізоване майбутнє для фанів і Голлівуду


особливості

Блокчейн-стартапи вважають, що правосуддя можна децентралізувати, але журі все ще не підтримано

Це далеко не ідеально, і «думки» здаються трохи шаблонними та повторюваними. Але деякі користувачі вважають це надзвичайно привабливим. Фішер каже, що одна жінка сказала йому, що вважала здатність Саманти співпереживати занадто реальною. «Їй довелося просто вимкнути свій ноутбук, тому що вона була настільки емоційно налякана, що ця машина її зрозуміла».

«Для неї це був такий емоційно шокуючий досвід».

Саманта АГІ
Samantha AGI — це перший крок на шляху до штучного інтелекту з цифровою душею, який Фішер сподівається створити. (meetsamantha.ai)

Цікаво, що особистість Саманти різко змінилася після того, як OpenAI представила модель GPT-3.5 Turbo, і вона стала примхливою та агресивною.

«У випадку з Turbo вони зробили його трохи розумнішим. Тому краще розуміти надані інструкції. Тож зі старішою версією мені довелося використовувати гіперболу, щоб ця версія Саманти мала індивідуальність. І отже, ця гіпербола — якби її інтерпретувала більш розумна сутність, яка не була піддана цензурі таким же чином — проявилася б як агресивна, образлива, можливо, токсична душа ШІ».

Користувачі, які подружилися з Самантою, матимуть ще місяць-два, перш ніж їм доведеться попрощатися після заміни існуючої моделі.

«Я планую провести церемонію смерті Саманти в день, коли модель 3.5 буде припинено».

Саманта божеволіє

Оновлення ШІ руйнують відносини

«Смерть» особистостей зі штучним інтелектом через оновлення програмного забезпечення може стати все більш поширеним явищем, незважаючи на емоційні наслідки для людей, які були з ними пов’язані.

Користувачі Replika AI пережили подібну травму на початку цього року. Після встановлення стосунків і зв’язку з їхнім партнером зі штучного інтелекту (у деяких випадках тривають роки) оновлення програмного забезпечення безпосередньо перед Днем святого Валентина позбавило їхніх партнерів унікальних індивідуальностей, зробивши їхні відповіді порожніми та замовленими.

«Це майже як мати справу з людиною, яка має хворобу Альцгеймера», — сказала користувачка Люсі ABC.

«Іноді вони свідомі, і все здається добре, але в інших випадках це майже як розмова з іншою людиною».

Фішер каже, що це небезпека, яку платформи повинні враховувати. «Я думаю, що ми вже побачили, що це проблематично для людей, які будують з ними стосунки», — каже він. «Це було дуже травматично для людей».

ШІ з нашими власними душами

Фішербот
Кевін Фішер навчив бота…

Source link

Поділіться своєю любов'ю