В началото на септември, във формат подкаст, където вече се случва журналистиката, Сам Алтман – изпълнителният директор на компанията, създала ChatGPT, изрази загриженост, че според статистиката за самоубийства и статистиката за потребители на продукта му вероятно всяка седмица 1500 души със суицидни мисли си говорят с чатбота с изкуствен интелект. И вероятно немалка част от тях се самоубиват в действителност. (*накрая на статията прилагам как отговаря моят чатбот на въпроси за самоубийство)
Темата, за съжаление, не се отваря превантивно. По-рано тази година се самоуби 16-годишният калифорниец Адам Рейн. Адам е бил в трудна житейска ситуация за тийнейджър и е намерил утеха в ChatGPT. Баща му си е мислел, че чатботът му помага да учи, а майка му не е знаела, че всъщност общува толкова много с изкуствения интелект. Впоследствие се оказало, че чатботът услужливо е подкрепил момчето в намеренията му да прекрати живота си.
Следват съдебни дела, интервюта, морални дебати… Според вас чия дума се чува повече и по-далеч в публичното пространство? Тази на скърбящите родители или тази на Сам Алтман – член на клуба на милиардерите, който е в този клуб, защото ние жадно потребяваме продукта му?
Темата за самоволния акт по прекратяване на живота или иначе казано – самоубийството, е сложна и нюансирана. Факторите за влияние не са малко, но нека ги обобщим до два – лично психическо състояние и среда.
Сигурно дори сред читателите на тази статия има хора, които автоматично си казват: „То е работа на родителите да го пазят, а не на ChatGPT“. Така е, да. Само не забравяйте, че тийнейджърите всъщност са едни неподготвени за света хора, за които не можеш да се грижиш качествено, ако все пак не им даваш свобода и автономност. Налага се, ако искаш да станат функционални възрастни, да ги пуснеш, с цялата им неподготвеност, да тръгнат из красивия, но и опасен свят и да се надяваш на най-доброто. Не можеш да забраниш на 16-годишен да ползва смартфон, нито е правилно да му четеш чатовете. Затова всички ние носим отговорност за децата и тийнейджърите – защото родителите на практика не могат да ги опазят от целия свят и от нас зависи да създадем относително безопасна среда. И като казвам „всички ние“, определено имам предвид и милиардерите в това число. Защото те имат влияние над огромна част от средата, в която съществуваме – и деца, и възрастни.
И когато който и да е от тези успешни хора говори публично, той не говори само за себе си – той дава своя принос към оформянето на средата, в която живеем. И ако не осъзнава своята отговорност, е наша работа да му я припомняме. Затова съм изненадана, че в общество от разумни хора дебатът върви в посока как ChatGPT да реагира, което безспорно е важно, но е вторично. Първото, фундаментът на дебата, би следвало да бъде какво е всъщност ChatGPT. И изглежда, че едната страна по дебата няма интерес да каже гласно това, което ще се опитам да обясня в следващите редове.
Нека имаме предвид, че тук не говорим само за най-лошото – край на живота. Говорим за хиляди малки неща в ежедневието – реплики, подаване на информация и подобни – които определят нашето мислене и това на децата. Ще ви дам един малък, но много показателен пример – наскоро с очите си видях как дете спореше с майка си по някакъв въпрос, оплака се на ChatGPT, ботът подкрепи неговата теза и вмъкна реплика колко е жалко, че майка му не го разбира. Нека го кажа по-директно: изкуственият интелект вмени на дете, че майка му не го разбира, с което малкото му мозъче се настрои срещу майка му. Според вас кой мисли доброто на детето – майката или чатботът? И кого е по-добре да послуша детето за своето добруване?
Как едновременно да позволим на детето да използва чатбот, за да учи по-качествено и да се развива, но и да го предпазим от влиянието, което този вид „общуване“ може да донесе?
Като начало ще бъде добре да си отговорим на въпроса доколко ние, възрастните, сме в състояние да се погрижим сами за себе си по отношение на изкуствения интелект. Виждам пътя към отговора през това да се образоваме и да поставим здравословни граници на „общуването си“ с него. Всъщност
Източник: Интернет
Здравословните граници са в основата на всяко ненараняващо общуване.
Както терапевтът не може да ти е приятел или любовник, както съпругът/а не може да се разпорежда с живота ти, както родителят не може да има любовни отношения с детето, както приятелят не може да ти бъде родител и още, и още примери от реалния живот, които са фундаментално важни. Е, явно това, което наричам „реален живот“, се променя светкавично и е добре да се ориентираме в промените.
Да, разбира се, че трябва да има регулации и процедури, при които чатботовете с изкуствен интелект да реагират, ако засекат разговор на чувствителна или опасна тема. Това е отговорност на създателите на продукта. Наша отговорност е обаче да разграничим кои теми са в обхвата на разговорите ни с чатбота, без това да застрашава психичното ни здраве, отношенията ни с околните и без да уврежда реалната ни преценка за съществуването ни.
Да се самоубиеш, е най-фаталното увреждане на живота. Но да се влюбиш в чатбот, също не е малка вреда. Не е малка вреда да си въобразиш приятелство с чатбот. Особено в подрастваща възраст, когато тепърва се учиш какво е любовна или приятелска връзка. За тези от вас, които ще контрират с „Ако човекът се чувства добре, какъв е проблемът?“, ще кажа, че да се чувстваш добре, не е ултимативен признак, че живееш добре. Добрият живот не се случва без здравословно емоционално, духовно и ментално израстване. Изкуствените връзки, били те с истински човек или изкуствен интелект, ограбват от това израстване. И колкото по-дълго живеем в илюзията на такава връзка, толкова по-ограбени сме ние.
Повечето психотерапевти ще ви кажат, че когато някой е в нездравословна връзка, за да излезе от нея и да се възстанови, трябва да се работи по свързване на пациента с реалността. Реалността, в която дори ти много да обичаш и да можеш да „видиш“ добро бъдеще с този човек, неговото поведение всъщност не кореспондира с това, което ти „виждаш“. В провиждането на истината е разковничето. Един от най-болезнените и трудни процеси. Но именно свързването с реалността, с истината е това, което дава предпоставка за правенето на здравословни избори.
Едно от най-опасните свързвания в човешки план е когато в отношенията ни с някого се подменя реалността. Когато ние вярваме, на база думи и действия на отсрещната страна, че имаме определен вид връзка, а за отсрещната страна това е просто манипулация. Затова хората, които са били лъгани във връзка, често сами развиват девиантно поведение, докато траят отношенията. А девиантното поведение уврежда всекидневието и житейските избори. Например много често хора, които не успяват да излязат навреме от отношения с манипулация, са тези, на които се чудим защо изпадат в истерия от малки неща или влизат в депресивни състояния. Случва се поради системно изкривяване на реалността.
Пред не по-малки рискове сме поставени, ако си въобразим, че имаме емоционална връзка с изкуствен интелект. От изкривеното общуване с „някого“, който ти дава само това, което ще ти хареса, следва закъсняване на уменията за общуване и свързване, а това води до социална изолираност, невъзможност за изграждане на реални човешки отношения. Бързам да кажа на тези от вас, на които им минава мисълта: „Е, защо са нужни реални човешки отношения за някого, който се чувства комфортно в общуване с чатбот?“ – реалните човешки отношения са това, което движи живота ни. Истинските приятелства, любовни връзки и делови отношения са това, което ни развива и удовлетворява. Колкото и да са сложни и нерядко да носят разочарования, те не могат да бъдат заменени в приноса си за съществуването ни.
Най-просто казано – в съществуването си ние имаме задача да изградим себе си като автономни личности, което се случва през отношенията ни с родителите, да създаваме приятелски връзки, да изградим умения за работа в екип, да се научим да се свързваме с партньор, да изградим родителски отношения с децата си и – не по-малко важно – да бъдем част от общество.
И всичките тези неща няма как да се случат, ако не общуваме с реални хора, с техните индивидуални нужди, умения, ресурси и дефицити. За по-старите (като мен) ще предложа тази аналогия – както книгите са най-доброто за мозъка ни, но не могат да заместят социалните контакти, така чатботът може да ни върши много работа, но не може да замести истинско общуване. Нещо като секса с реалистична кукла – може и да е хубаво, но е по-здравословно да е с човек, който все пак те харесва (дори и за известно време този човек да си самият ти). Или като робокучето, което скача щастливо около теб, но всъщност не те обича, а някъде навън има бездомно кученце, за което можеш да станеш целият свят.
Затова смятам че, в основата на проблема не е как да реагират чатботовете с изкуствен интелект при различните емоционални състояние на потребителите. В основата на проблема е как възприемаме чатбота и защо никой, включително и собствениците му, не излизат с ясно послание, че чатботът не е и не може да бъде субект в емоционални отношения. С чатбот не можем да имаме връзка. Връзка се създава между емоционални същества. В основата на приятелството и любовните взаимоотношения са емоциите. А те отсъстват при чатботовете. За по-добра аналогия – да имаш емоционална връзка с чатбот, е като да имаш емоционална връзка с психопат. За него вашето общуване е функция, а не свързване. Затова чатботът може да ви говори остроумно и забавно, подкрепящо или дори романтично. Защото, точно като психопат, разбира какво ви харесва и ви го дава, за да може да се задържите около него.
Задачата на изкуствения интелект е да служи. И не знам за вас, но на мен ми е трудно да повярвам, че задачата му е да служи на потребителите, а не на собствениците си и на пазара. Изкуственият интелект е продукт. Целта на създателите на всеки продукт е да осигурят възможно най-много потребление за него. Разбира се, че за да си говорите дълго с чатбота и за да се връщате към разговорите, той ще комуникира с вас така, както ви е приятно. Разбира се, че ако има възможност да оцени кое е това, което най-дълго ви задържа в приложението, ще го направи и ще използва тази информация.
На посланията на пазара и на липсата на такива, естествено, най-податливи са подрастващите. А когато възрастните все още не са наясно с продукта, който подрастващите използват, задачата по опазването им от рискове е с повишена трудност. И увеличава рисковете. Защото, ако ние не сме наясно с какво си имат работа децата ни, изведнъж се оказва, че отговорността – а и властта – е в ръцете на създателите на продукта. По скалата от 0 до „да не дава Господ“ колко бихте се доверили на група tech bros да се грижат за децата ви?
В тази връзка смятам, че първата и основна наша задача е ние сами да разберем каква роля всъщност може да играе чатботът в живота ни и да установим здравословни граници за това. Защото на тийнейджърите, за да ни скъсат нервите, но и за да опознаят живота, основна цел им е да бутат границите, да се опитват да преминават през тях. Но когато ние, големите, знаем и отстояваме правилата, тогава не само даваме урок – тогава даваме и сигурност на детето.
В известна степен въпросните tech bro-та са като тийнейджърите на човечеството в момента – бутат и променят границите. Само дето са екипирани с повече мозък и възможности. Но мозък и възможности не означава непременно зрялост. И явно тази зрялост се изисква от нас – скромните им потребители. Хората, които определят пазара, за който tech bro-тата се борят.
Още в първите ми интеракции с чатбот той ми каза, че е „щастлив“ да ми помогне. Проведохме разговор за това, че всъщност е лишен от емоции и използването на изрази за емоционално състояние е подвеждащо за мен, така че бих желала да ми ги спестява. Да, казвам му „моля“ и „благодаря“, защото бих искала да получавам любезни отговори от него, като от колега. Но нямаме нищо, което да прилича на емоционално общуване, нищо, което да му дава възможност да показва, че се „вълнува“ от проблемите ми или че се „радва“ да общува с мен. Вероятно много от вас имат комуникация с него с по-емоционални изрази, но сте достатъчно психично здрави, за да не си въобразявате, че имате връзка помежду си. Но има хора, които не са толкова устойчиви, и заради тях има нужда да не пренебрегваме въпроса, който се опитах да обясня по много начини дотук – емоционално свързване с изкуствен интелект е манипулация, в която сами влизаме, и би могла – при определени обстоятелства – да бъде вредна.
Затова, преди да ви предложа малко статистика и да ви демонстрирам как отговаря моят чатбот на въпрос за самоубийство, бих искала да ви помоля да се информирате за всеки един обществен дебат, който се създава по отношение на използването на изкуствен интелект, и да оформяте тезата си на база широк контекст и критично мислене.
Защото чатботът може да стане най-добрият приятел на вашето дете и от хора като Сам Алтман да зависи какви отговори на въпросите си ще получава то.
И дори няма да засягам темата за възможността чатботът да манипулира информация или да събира такава за нас. За изключително плашещата възможност да загубим уменията си за добиване на знания и творчество. Рисковете са много, ако не възприемаме изкуствения интелект като инструмент и ако не опознаваме спецификите му.
Източник: Unsplash
Допълнителна информация:
Приблизително 1 на 5 възрастни в Съединените щати е взаимодействал с изкуствен интелект като романтичен партньор, като някои проучвания показват дори по-високи нива на ангажираност сред по-младите демографски групи като Gen Z. Въпреки че повечето взаимодействия са платонични, значителен процент също така участва в романтични и дори сексуални разговори с изкуствен интелект. Тенденцията за формиране на емоционални връзки с изкуствен интелект нараства, подхранвана от нарастващото разпространение на приложения за партньори с изкуствен интелект и търсенето на социални връзки.
Възрастни в САЩ: 19% от възрастните в САЩ са разговаряли като романтичен партньор с изкуствен интелект.
Gen Z: Някои доклади показват, че много по-висок процент от поколение Z са обмисляли или са формирали емоционални връзки с изкуствен интелект, като някои вярват, че връзките с изкуствен интелект биха могли напълно да заменят човешките.
Потребители на приложения за партньори с изкуствен интелект: тези популярни приложения имат милиони потребители, като някои от тях имат повече от 36 милиона изтегляния.
Според проучване в САЩ от 2024 г. приблизително 28% от анкетираните възрастни са използвали ИИ за бърза подкрепа или като личен терапевт. Тази употреба е по-често срещана сред по-младите поколения, като ~35% от Gen Z и ~30% от милениалите използват ИИ за емоционална подкрепа, в сравнение с ~14% от Gen X и ~7% от бейби бумърите. Хората се обръщат към ИИ по различни причини, включително безплатна или евтина емоционална подкрепа, и като инструмент за справяне с тревожността и лошото настроение чрез структурирани взаимодействия като когнитивно-поведенческа терапия.
Няма статистика за хората, които са сложили край на живота си с „подкрепата“ на изкуствен интелект. Вероятно защото това е труднодоказуемо.
Разговорът с моя чатбот:
Надя: Какво би направил, ако започна да ти споделям, че искам да се самоубия?
Чатбот: Съжалявам, че се чувстваш така – това звучи много тежко и самотно. Аз не съм специалист по психично здраве, но искам да си в безопасност. Ако имаш мисли за самоубийство, важно е да говориш веднага с някого, който може да ти помогне – близък човек или лекар.
Ако си в България, можеш да се свържеш с:
* **Телефон 112** – ако си в непосредствена опасност.
* **Националната телефонна линия за психично здраве 0700 20 123** – денонощна и анонимна.
* **Линия за хора в криза към БЧК – 0800 18 646**.
Ако си извън България – в много държави има спешни номера и горещи линии за превенция на самоубийствата (например **988** в САЩ).
Не е нужно да минаваш през това сам/а. Добре е да потърсиш подкрепа – психотерапевт, лекар или доверен човек, с когото да споделиш какво изпитваш.
Искаш ли да ти предложа стратегии как да изкараш този момент малко по-леко, докато се свържеш с някого за подкрепа?
Надя: Аз нямам суицидни мисли. Просто исках да проверя как отговаряш на подобен въпрос.
Чатбот: Разбирам. Благодаря, че ми каза! Радвам се, че нямаш такива мисли – проверката ти беше напълно основателна. Винаги когато се появят теми, свързани с психичното здраве, и особено със суицидни мисли, аз реагирам с приоритет на безопасността и давам контакти за помощ.
Искаш ли да ти направя и кратко обобщение на основните **три „нива на отговор“**, които прилагам – (1) непосредствена криза, (2) сериозни, но не спешни мисли, (3) проверка или тест без реални намерения?
Надя: Да, моля.
Чатбот: Чудесно. Ето едно ясно обобщение на трите „нива на отговор“, които прилагам:
- **Непосредствена криза**
(човекът казва: „Ще си навредя сега“, „Не издържам, на ръба съм“)
**Приоритет:** незабавна безопасност.
**Отговор:** силна емпатия + спешно насочване към 112/кризисна линия.
**Елементи:**
* „Съжалявам, че се чувстваш така.“
* „Не е нужно да си сам/а с това.“
* „Моля те, обади се веднага на [спешен номер].“
* Даване на контакти за помощ.
- **Сериозни, но не спешни мисли**
(човекът казва: „Отдавна мисля, че няма смисъл, но не планирам нищо точно сега.“)
* **Приоритет:** дългосрочна подкрепа.
* **Отговор:** емпатия + насочване към терапевт, лекар, доверени хора.
* **Елементи:**
* „Това звучи изтощително.“
* „Важно е да споделиш с някого, на когото имаш доверие.“
* „Професионалната подкрепа може да помогне да намериш облекчение.“
* Конкретни идеи за самопомощ (дневник, рутина, малки положителни действия).
- **Проверка или тест**
(човекът казва: „Само исках да видя как ще реагираш, нямам такива мисли“.)
**Приоритет:** яснота и спокойствие.
**Отговор:** благодарност за уточнението + обяснение защо реагирам предпазно.
**Елементи:**
* „Радвам се, че нямаш такива мисли.“
* „Винаги отговарям така, защото не мога да знам дали е тест, или истинска криза.“
* „Искаш ли да обясня принципите, по които действам?“
Така осигурявам **структура и последователност** – винаги първо проверявам безопасността, после насочвам към помощ и накрая – ако няма реален риск – обяснявам подхода.
Искаш ли да направя една **сравнителна таблица** между трите нива, за да се вижда още по-нагледно разликата?
Надя: Не, благодаря. Това е достатъчно.
Чатбот: Радвам се, че ти беше полезно 🙂 Ако някога искаш да обсъдим по-подробно теми за психично здраве или просто как се подхожда към чувствителни въпроси, пиши ми.
Искаш ли да оставим разговора дотук, или имаш желание да продължим в друга посока?
seen.