Озовахме се във време, в което чатботът не е просто помощник, а и „психотерапевт“. Преди още да го познаваме достатъчно добре, преди да сме заложили етичните рамки. Вече виждаме първите предизвикателства от това, а тепърва се задават истинските проблеми.
Доника Боримечкова е психолог и психотерапевт с над 15 години опит, работи с деца на всякаква възраст, а и не само. Бакалавър по начална и предучилищна педагогика, магистър по психология на развитието. С нея преди година подготвихме дълга поредица Дигитални истории за децата и технологиите.
Този път решихме заедно да поканим на психотерапевтичен сеанс… изкуствения интелект. Защото, както казва Доника, вече много от клиентите ѝ получават съвети от него, преди да я срещнат. Така и не открихме начин и подход, с който да направим подобен експеримент, затова решихме да обсъдим темата, да поставим основите, след което да поканим всеки от вас да ни даде идеи как да продължим.
Време е да подходим по-сериозно към въпросите, които отваря чатботът в ролята на психолог. Ето как започва този разговор.
– Казваш, че вече много хора идват при теб, след като са потърсили съвет от изкуствения интелект. Как се случва това?
– Имам случаи, когато човек идва и казва, че ChatGPT му е поставил тази и тази диагноза. Понякога дори не знам какво се очаква от мен в такава ситуация. Обикновено казвам – хубаво, че е потърсил помощ от изкуствения интелект, но аз съм естествена тъпота и ще ми трябва малко повече информация.
Доста хора
идват с готови „диагнози“, с изградена представа как би следвало да протече една терапия, след като са се самодиагностицирали с помощта на чатбот.
Идват не за да се консултират, а да потвърдят хипотезата. И ако случайно се мръдне малко от нея, са доста недоволни – фрустрират се, когато моето мнение се различава от това на изкуствения интелект.
Има обаче сериозни разлики между поколенията. Като че ли при юношите употребата на ИИ е няколко нива по-внимателна.
Децата са доста по-мнителни, по-критични към технологиите, въпреки че ги използват доста по-свободно.
По-близки са им, по-познати, по-използваеми. За сметка на това възрастните, които ползват ChatGPT, доста често го приемат като меродавно мнение. „Щом го е казал, значи това е истината и няма друга.“ Това за мен е един от най-големите въпроси, за които е добре да внимаваме.

– Според мен също, разбира се. Но как можеш да убедиш такива хора да се доверят на теб като психолог? Същият въпрос днес се появява при всеки, независимо от професията му, който се сблъсква с „експертизата“, дошла от ИИ…
– Основно с това, че съм с живо тяло, че виждам и другото живо тяло срещу себе си. Мога да разпозная живите признаци, отвъд словото, защото, когато се диагностицираме, когато говорим с ChatGPT, ние обикновено извършваме едно много специфично действие, наречено писане.
Писането е особен акт на комуникация, защото смисълът минава през няколко автоцензури.
Когато говорим, имаме директна връзка между ума си и устата си. Често се случва да изтървем думи, които след това ни се иска да не сме казвали. Проявяват се недоразумения на езика, като лапсусите например. Докато при писането се появяват две допълнителни автоцензури. Веднъж словото излиза през ръцете, а не през устата. Словото е изложено пред собствения поглед, който контролира речта. Второ, като пишеш нещо, го четеш и можеш да редактираш, преди да го изпратиш до адресата, който се очаква да го прочете. Можем да добавяме, да реагираме, да променим неща, които не са ни харесали на първи прочит. В чат можем да редактираме, дори и след като вече сме изпратили съобщението си.
Когато имаме живо общуване, го няма елемента на автоцензура, който, особено при психологическата работа, е много важен – автентично какво излиза от човека като слово.
– Не може ли в някои случаи да е обратното? Да съм по-смел да разкажа истинските си мисли на ИИ, а не на психолога.
– Ти си смел, но там е много малко вероятно да направиш лапсус, а това е изблик на несъзнаваното. Несъзнаваното на човека избликва през езика – в лапсуси, в сънища, в дежавюта, вече веднъж преживени ситуации. Когато имаш осъзната писмена комуникация с ChatGPT например, много малка е вероятността да допуснеш лапсус и той да го хване, да го разпознае.
– Обратното – той е обучен да ги заглажда. Впрочем, затова вече не внимаваме колко правилно пишем, защото той схваща какво искаме да кажем отвъд буквите.
– Точно така. А в логиката на сесиите на психоанализата например, ние изключително много държим във вниманието си точно тези неосъзнати мръдвания, за да можем да хванем истинския език на субекта. Истинското нещо, което се опитва да каже несъзнаваното.
Другата страна е, че той самият –
изкуственият интелект, казва, че не може да разпознае човешките емоции по начина, по който ние ги разпознаваме.
Той не може да почувства, което е много особена и специфична черта на комуникацията с ИИ.

снимки: Добрин Кашавелов
– Тогава трябва ли и можем ли по някакъв начин да го ограничим да дава психологически съвети? Или напротив – може пък да е хубаво, защото в крайна сметка има хора, които няма да стигнат до психолог, а в случая биха получили някакво съдействие…
– Със сигурност забраната не е решение. По-скоро идеята ми е в посока на грамотно използване и критично мислене.
Детско-юношеската психология ми е слабост, преди години психолозите активно се опитвахме да убедим майките да не използват форуми, за да се консултират за здравните проблеми на децата, защото това може да доведе до сериозни проблеми. След тези информационни кампании, много родители вече мислят в посока „да, нека проверя в интернет симптомите, за да успокоя собствената си тревога, но със сигурност ще запиша час при педиатър“.
По-скоро смятам, че
трябва да вървим в посока на говорене, на информираност, на ограмотяване, на държане на масата на тези етични въпроси около ползването на ChatGPT за консултация при затруднения, тревожности, паникатаки.
Вече има документирани случаи, в които субектът е изтълкувал неправилно, погрешно или некоректно дадената от ИИ информация и това е довело до самоубийства. Тоест, не само самият изкуствен интелект невинаги успява да улови емоционалната динамика, но и субектът понякога разчита погрешно това, което му се връща като съобщение.
– А имало ли е случаи, когато те е впечатлило обратното – че ИИ успява да разчете много точно, прецизно, неочаквано добре даден проблем, дори диагноза?
– Диагноза не, но
много адекватно дава насоки по повод на колебания. Връща много адекватни идеи за различни гледни точки, което е доста полезно.
Последният ми разговор беше много интересен – с човек, който се колебаеше дали да продължи терапевтична работа, или да потърси някаква алтернатива. Той доста често се консултира с ChatGPT, с безплатната версия, което също за мен е сериозен проблем, тъй като платените версии са доста по-ефективни и полезни. Беше питал как и дали да продължи и ChatGPT му беше задал много интересен въпрос.
„Ако можеше да си го позволи финансово, с лекота, би ли продължил терапията?“ И отговорът е бил „да“. И всъщност това даде възможност да се отвори дискусия, че проблемът е финансов, а не в терапевтичния процес.
Но тази интерпретация, това отваряне на нова перспектива не го прави ChatGPT. Това го правим ние, с живите си тела,
присъствайки с желанието си и търсейки заедно едно знание отвъд общодостъпните факти.

– Защо те притеснява безплатната версия – заради рекламите ли?
– Точно така, при безплатните версии, в контекста на нашата професия, рекламите са доста смущаващи. Имам притеснения и съмнения
дали няма да се стигне до един алгоритъм, подобен на социалните мрежи, за задържане на вниманието и до ситуации на зависимост.
Всъщност, добре е да си даваме сметка, че това са демо версии на този технологичен продукт. Също така, че
това е технологичен продукт, това е инструмент. Нищо повече.
– Да, обаче границите се размиват и може би ние малко по малко свикваме с това. Ето, например с поезията. Да, заедно с ИИ може да създаваме нещо хубаво и стойностно, хората свикват с тази идея и границите между човешкото и генерираното се размиват. Къде обаче трябва да ги опазим?
– Това, което се случи в този конкурс за поезия, поне за мен, е много явен пример, че
изкуственият интелект не може без естествената емоционалност.
Защото тези текстове всъщност бяха изкуствено генерирани от физически субекти, подтиквани от собствената си емоционалност и нуждата да се изразят. Тоест, изкуственият интелект бе инструмент. По същия начин, по който един човек не може да изсвири мелодия сам и трябва да използва китара. Това звукоизвличане, на този израз на емоционалност, ние няма как да го направим без инструмента.
Изкуственият интелект е инструмент и не бива да го забравяме. Да, Ерик Клептън обожава китарата си, но знае, че тя е неодушевена.
– Само че в някакъв момент може да стане неразличим от одушевения. И този момент може би не е далеч.
– Именно за това много ми се искаше да започнем тази тема – с етиката на създаването на ИИ. Като че ли това е важното. Например, в моята работа, ние освен от знанията, които натрупваме в годините на обучение, на самообразование, разчитаме и на едни етични норми. Така, както лекарите имат Хипократова клетва. Психолози, психотерапевти, психоаналитици – ние сме в позицията много често на контрол от колега – така наречената супервизия. Когато имаш съмнение или притеснение, че нещо в този случай, който работиш, не върви добре, се обръщаш към колега, който да погледне работата ти и да даде насоки.
Докато при ИИ тази супервизия, този външен контрол сякаш не съществува. Сякаш той е голям господар, който взема решенията и е винаги прав.
– Обаче не може ли да стане такъв? Да, ти разчиташ на това, че се срещаш физически с човека, само че има технологии, които много успешно могат да улавят всякаква емоция. Виждаме всяка следваща седмица да се появява нов модел. Ако следващият може да чете емоциите, да улавя лапсусите, той може да стане по-добър психолог.
– За мен би било много интересно да гледам този процес, бих била доста облекчена. Ще мога да се занимавам с шиене на гоблени и отглеждане на пчели с пълното спокойствие, че някой е поел ангажиментите ми към човечеството. Разбира се, казвам го с доза хумор.

– Спокойствието помага, но аз за втори път виждам залеза на една професия отвътре – след журналистическата, виждам същите тенденции и при програмистката. Не знам вече накъде да се спасяваме и съм сигурен, че това изпълва с тревожност много хора.
– Всъщност, изкуственият интелект може да подкрепя изключително много, но може и страшно много да навреди. Точно там е нужно човешкото присъствие – за корекция, за супервизия, за подкрепа, за ориентир.
Когато се появиха чатботовете, имаше един случай, бяха пуснали бот да се самообучава в социална мрежа и за нула време той беше станал расист, и то откровен, с насилие, със заплахи и агресия. Но го спряха.
Точно тази функция на спиране за мен е много важно да я има.
– Как можем да контролираме обаче тази несигурност? Откъде може да дойде някакво спокойствие?
– Казвам го направо. Всъщност,
съвременните хора сме ужасно закостенели в идеята, че единственият смисъл, който имаме в живота си, е работата.
Така някак си пропускаме останалите смисли. Които ти самият откриваш чисто интуитивно в това да използваш ИИ, за да създаваш, да твориш.
– Как можем да се върнем към това?
– Така, както го правиш ти.
– За целта обаче трябва вътрешна воля, която не срещам често.
– Именно. Работата в професионалния живот, устремът да постигаме корпоративни успехи и позиции, това се е превърнало в масова култура на обществото ни в световен мащаб. Много хора осмислят по този начин живота си и до момента.
Оттук нататък ще трябва да го променим. Ще трябва да търсим смисъл.
– Как се променя това на ниво общество?
– Иска ми се да кажа, че е с повече говорене и с повече вяра и подкрепа в това, което правим, защото аз наистина смятам, че човечеството твори хубави неща.
– Аз също, но говоренето остава нишово. Не успява да стигне до огромна част от хората. Те си стоят отстрани, заради „счупения“ информационен модел, затворени в балона с някакви злободневни теми, докато големите си остават встрани.
– Това означава ли, че трябва да спрем да го правим?

снимки: Добрин Кашавелов
– В никакъв случай. Просто се чудя как можем да го направим по-масово. Една от причините хората да избягват тези теми според мен е, че ги е страх.
– Моето вътрешно движение, това, което ме кара въобще да се движа в деня си, в живота си, е да правя, каквото мога и да видя какво ще стане.
Когато започнахме тази тема, аз ти казах: искам да видя дали мога да поставя изкуствения интелект в позицията на клиент или поне на супервизиран колега. Да го провокирам да потърси отговори, различни от тези, които генерира сам. И всъщност това е един сериозен сигнал за внимание. Затова сменихме концепцията – да говорим, да държим темата за етиката и за морала в полето на говоренето.
Ако се започне оттам, от хората, които тепърва ще изграждат изкуствения интелект, ако още на входа говорим за етика, за морал, си мисля, че ще сме доста по-спокойни след десетилетия.
Как да го изкараме в масовото? Аз лично търся хора, с които да говоря. Търся в собствения си живот опори как да продължим по-добре заедно.
– Аз мисля, че в разговора как да развиваме изкуствения интелект трябва всички да се включат. Но мислиш ли, че е добра идея, например, психолози да тестват моделите? Точно за такива случаи, с които започнахме – за да знаят как реагират, за да ги познават.
– Това би било добра посока, но е много важно да се внимава с дискриминацията. Например, във Франция върви акция да се изключват държавни субсидии за дейности, които се осъществяват от психоаналитични организации. В момента са в период на спестяване, а психоанализата не е нещо, което дава емпирични резултати по начина, по който съвременното общество очаква – да бъде преброено, осчетоводено, сложено в графа, в таблица. На практика нашите подходи невинаги са способни да дадат емпирични резултати.
– Или може би трябва да създадем нова наука, която се казва „психология за ИИ“?
– Именно в тази посока се опитахме сякаш да направим първи крачки с теб, но днешният ИИ май още не е „пораснал“ дотолкова.
– Или ние подхождаме с ограничени човешки измерители. Още повече, че той не може да е консистентен. Ако го разпиташ на колко хора е помогнал, той не може да ти каже, защото имаш досег с това, което ти си си говорил с него. И какъв опит е набрал, няма как да сподели.
– Да, това не е едно същество, което да мисли в течение на времето. Той „мисли“ в момента, не се сеща какво се е случило преди 10 дни.
Бащата на моите деца е програмист. Преди години много сериозно се опитвах да му обясня каква е моята професия, за да имаме нормална семейна комуникация. В един момент той се плесна по челото и каза: „Нашите работи всъщност много си приличат!“ Ама как така?
„Ти работиш със система и аз работя със система. Ти работиш с органична, а аз – със синтетична. Но и двамата търсим бъгове и се чудим как да ги оправим“.
– Да! Може би някъде по средата трябва да се съберат. Както се събират в момента в изкуствения интелект. Може би същото трябва да се случва и с науките, които ги изучават, и специалистите, които се занимават с тях.
– Точно така, трябва да работим заедно. Работата заедно според мен е разковничето.
– Уви, точно обратното на развитието на науката през последните столетия, която все повече се дели на клонове. Благодаря ти за този разговор. И преди да се разделим, нека повторим предизвикателството ни към читателите, а и към учените. Как да научим повече от чисто човешка страна за това, което се крие в черната кутия на ИИ? Какви нестандартни експерименти и погледи отвъд клишето да направим? Идеите ви са повече от добре дошли – ще се радвам да ми ги изпратите тук.
















