Кламер БГ - Новини: Изкуственият интелект хакна операционната система на човешката цивилизация

Изкуственият интелект хакна операционната система на човешката цивилизация

Анализи и Коментари

|
Съб, 03 Юни 2023г. 07:25ч.
Изкуственият интелект хакна операционната система на човешката цивилизация

Изкуственият интелект хакна операционната система на човешката цивилизация

Страховете от изкуствения интелект преследват човечеството от самото начало на компютърната ера. Досега те се фокусираха върху създаването на машини, използващи физически средства, за да убиват, поробват или за да заменят хората. Но през последните няколко години се появиха инструменти, използващи изкуствен интелект (ИИ), които заплашват оцеляването на човешката цивилизация от неочаквана посока. Изкуственият интелект придоби забележителни способности да манипулира и генерира език, независимо дали с думи, звуци или изображения и така хакна операционната система на нашата цивилизация.

Езикът е материалът, от който е изградена почти цялата човешка култура. Правата на човека, например, не са вписани в нашето ДНК. Те по-скоро са културни артефакти, които сме създали чрез разказване на истории и писане на закони. Боговете не са физически реалности. Те са по-скоро културни артефакти, които сме създали чрез измисляне на митове и създаване на писания.

Парите също са културен артефакт. Банкнотите са просто цветни парчета хартия и в момента повече от 90% от тях дори не са банкноти, а просто цифрова информация в компютрите. Това, което дава стойност на парите, са историите, които банкери, финансови министри и гурута на криптовалутите ни разказват за тях. Сам Банкман-Фрайд (съосновател на фалирата крипто борса FTX - бел. ред.), Елизабет Холмс (основава компания за кръвни анализи, коато привлича много инвеститори, а продуктът се оказва измама - бел. ред.) и Бърни Мадоф (смятан за един от най-големите измамници във финасовата сфера в САЩ - бел. ред.) не бяха особено добри в създаването на истинска стойност, но всички бяха изключително способни разказвачи.

Силатата на езика и историите

Какво ще се случи, когато един нечовешки интелект стане по-добър от обикновения човек в разказването на истории, композирането на мелодии, рисуването и писането на закони и истории? Когато хората мислят за Chat GPT и други нови инструменти, основани на изкуствен интелект, често се сещат, че могат да се използват за писането на есета за училище. Какво ще се случи с образователната система, когато учениците започнат да използват изкуствения интелект по този начин?

Но този тип въпроси пропускат голямата картина. Забравете за училищните съчинения. Помислете за надпреварата за президент на САЩ през 2024 г. Опитайте се да си представите въздействието на инструментите с изкуствен интелект, които могат да бъдат използвани за масово производство на политическо съдържание, фалшиви новини и писания за нови култове.

През последните години култът КюАнон (qAnon) се обедини около анонимни онлайн съобщения. Последователите на този култ ги събираха, почитаха и тълкуваха като свещен текст. Доколкото ни е известно, до момента това съдържание е създавано от хора, а ботовете са използвани само за разпространението му . В бъдеще обаче може да видим първите култове в историята, чиито почитани текстове са написани от нечовешки разум.

Исторически религиите винаги са претендирали за нечовешки източник на техните свещени книги. Скоро това може да е реалност.

Промяна на светогледа

На по-прозаично ниво скоро може да се окажем в ситуация да водим дълги онлайн дискусии за абортите, изменението на климата или руската инвазия в Украйна със същества, за които смятаме, че са хора, но всъщност са изкуствен интелект. Уловката е, че е напълно безсмислено да прекарваме време в опити да променим мнението на бот с изкуствен интелект, но той може да усъвършенства своите послания толкова прецизно, че да повлияе на нашето мнение.

Още по темата:

Пионер в сферата на изкуствения интелект: Чувствам се изгубен

Чрез владеенето на езика, изкуственият интелект може дори да формира интимни отношения с хората и да използва силата на интимността, за да промени мнението и възгледите ни за света. Въпреки че няма индикация изкуственият интелект да има собствено съзнание или чувства, за насърчаване на фалшива интимност с хората е достатъчно, ако той може да ги накара да се почувстват емоционално привързани към него.

През юни 2022 г. Блейк Лемойн, инженер в Google, публично заяви, че чатботът с изкуствен интелект Lamda, върху който работи, е станал съзнателен. Противоречивото твърдение му струва работата. Най-интересното в този епизод не беше твърдението на г-н Лемойн, което вероятно е било невярно. По-скоро беше готовността му да рискува доходоносната си работа в името на чатбот с изкуствен интелект. Ако един такъв бот може да повлияе така на хората, че те да са готови да рискуват работата си, какво ли друго може да ги накара да направят?

Интимността като оръжие

В политическа битка за умове и сърца интимността е най-ефикасното оръжие и изкуственият интелект току-що придоби способността да произвежда масово интимни отношения с милиони хора. Всички знаем, че през последното десетилетие социалните медии се превърнаха в бойно поле за контрол на човешкото внимание. С новото поколение изкуствен интелект, бойният фронт се измества от внимание към интимност. Какво ще се случи с човешкото общество и човешката психология, когато изкуствен интелект влезе в битка с друг изкуствен интелект за фалшиви интимни отношения с нас, които отношения след това могат да бъдат използвани, за да ни убедят да гласуваме за определени политици или да купуваме определени продукти?

Дори и без да създават "фалшива интимност", новите инструменти с изкуствен интелект биха имали огромно влияние върху нашите мнения и светогледи. Хората може да започнат използват един единствен инструмент с изкуствен интелект като универсален, всезнаещ оракул. Нищо чудно, че Google е изпаднал в ужас. Защо да си правя труда да търся, когато мога просто да попитам оракула? Новинарската и рекламната индустрия също трябва да бъдат ужасени. Защо да чета вестник, когато мога просто да помоля оракула да ми каже последните новини? И каква е целта на рекламите, когато мога просто да помоля оракула да ми каже какво да купя?

Потенциалният край на човешката история

И дори тези сценарии всъщност не улавят голямата картина. Това, за което говорим, е потенциалният край на човешката история. Не краят на историята, а просто краят на доминираната от хората част. Историята е взаимодействието между биология и култура; между нашите биологични нужди и желания за неща като храна и секс и нашите културни творения като религии и закони. Историята е процесът, чрез който законите и религиите оформят храната и секса.

Още по темата:

Технологията крие “страшни” опасности. Съжалявам, че работих за него

Какво ще се случи с хода на историята, когато изкуственият интелект поеме културата и започне да създава истории, мелодии, закони и религии? Предишни инструменти като печатната преса и радиото помогнаха за разпространението на културните идеи на хората, но те никога не са създавали собствени културни идеи. Изкуственият интелект е коренно различен. Изкуственият интелект може да създаде напълно нови идеи, напълно нова култура.

Първоначално, той вероятно ще имитира човешките прототипи, по които е обучаван при своето ранно развитие. Но с всяка изминала година културата на изкуствения интелект смело ще стигне там, където никой човек не е достигал. От хилядолетия човешките същества са живели в съзнанието на други хора. През следващите десетилетия може да се окаже, че живеем в мечтите на извънземен разум.

Свят на илюзии

Страхът от изкуствения интелект преследва човечеството само през последните няколко десетилетия. Но от хиляди години хората са преследвани от много по-дълбок страх. Винаги сме оценявали силата на историите и образите да манипулират умовете ни и да създават илюзии. Следователно от древни времена хората са се страхували да не бъдат впримчени в свят на илюзии.

През 17 век Рене Декарт се е страхувал, че може би злонамерен демон го хваща в капана на илюзорен свят, създавайки всичко, което вижда и чува. В древна Гърция Платон разказва известната алегория за пещерата, в която група хора са оковани в пещера през целия си живот, изправени пред празна стена. Екран. На този екран те виждат различни сенки. Затворниците бъркат илюзиите, които виждат там, с реалността.

В древна Индия будистки и индуски мъдреци учат, че всички хора живеят в Мая - светът на илюзиите. Това, което обикновено приемаме за реалност, често е просто измислица в собствените ни умове. Хората могат да водят цели войни, да убиват други и самите те да искат да бъдат убити, поради вярата си в тази или онази илюзия.

Революцията на изкуствения интелект ни изправя лице в лице с демона на Декарт, с пещерата на Платон, с Мая. Ако не внимаваме, може да се озовем зад завеса от илюзии, която не можем да разкъсаме, или дори да осъзнаем, че съществува.

Трябват регулации за ИИ

Разбира се, новата сила на изкуствения интелект може да се използва и за добри цели. Няма да се спирам на това, защото хората, които развиват ИИ, говорят достатъчно за това.

Работата на историците и философите като мен е да посочват опасностите. Със сигурност изкуственият интелект може да ни помогне по безброй начини - от намирането на нови лекове за рак до откриването на решения на екологичната криза. Въпросът, пред който сме изправени, е как да сме сигурни, че новите инструменти с изкуствен интелект се използват за добро, а не за зло. За да направим това, първо трябва да оценим истинските възможности на тези инструменти.

От 1945 г. знаем, че ядрената технология може да генерира евтина енергия в полза на хората, но може и физически да унищожи човешката цивилизация. Променихме целия международен ред, за да защитим човечеството и да гарантираме, че ядрената технология се използва предимно за добро. Сега трябва да се борим с ново оръжие за масово унищожение, което може да заличи нашия духовен и социален свят.

Все още можем да регулираме новите инструменти с изкуствен интелект, но трябва да действаме бързо. Докато ядрените оръжия не могат да измислят по-мощни ядрени оръжия, ИИ може да направи експоненциално по-мощен ИИ. Първата решаваща стъпка е да се изискват строги проверки за безопасност, преди мощните инструменти с изкуствен интелект да бъдат пуснати и за масово ползване. Точно както една фармацевтична компания не може да пуска нови лекарства, преди да е тествала техните краткосрочни и дългосрочни странични ефекти, така и технологичните компании не трябва да пускат нови инструменти с ИИ, преди да е сигурно, че са безопасни. Имаме нужда от регулатор за изкуствения интелект и той ни трябваше вчера.

Заплаха за демокрацията

Няма ли забавянето на публичното внедряване на ИИ да доведе до изоставане на демократичните общества в сравнение с по-безмилостните авторитарни режими? Точно обратното. Нерегулираното масово внедряване на ИИ би създало социален хаос, който би облагодетелствал автократите и би разрушил демокрациите. Демокрацията е разговор, а разговорите разчитат на езика. Когато ИИ хакне езика, може да унищожи способността ни да водим смислени разговори, като по този начин ще унищожи демокрацията.

Току-що се сблъскахме с извънземен разум тук, на Земята. Не знаем много за него, освен че може да унищожи нашата цивилизация. Трябва да сложим край на безотговорното внедряване на ИИ инструменти в публичната сфера и да регулираме ИИ преди той да ни регулира. И първата разпоредба, която бих предложил, е задължението изкуственият интелект да разкрива, че е изкуствен интелект. Ако водя разговор с някого и не мога да кажа дали е човек, или ИИ – това е краят на демокрацията.

Този текст е генериран от човек.

Или не е?

*Ювал Ноа Харари е историк, философ и автор на Sapiens, Homo Deus и на детския сериал Unstoppable Us. Той е преподавател в катедрата по история на Еврейския университет в Йерусалим и съосновател на Sapienship, компания за социално въздействие.

Текстът е публикуван в The Economist.

mediapool.bg