Дали наследниците на ChatGPT ще пишат новините лично за всеки от нас така, както биха ни харесали? Как изглежда бъдещето на информацията, на начина, по който разбираме какво се случва по света и у нас? Наистина ли идва времето, когато всеки ще има лични новини, персонализирани според предпочитанията и интересите му? А дали това няма да задълбочи някои от големите проблеми, които имаме и днес, свързани с ожесточаването онлайн, с балоните на филтрите?
Бързаме с оценките си за това колко точно е голям последният напредък на изкуствения интелект. Почти винаги се разминаваме в крайности – от ентусиазма до сарказма, както е типично за общуването ни онлайн. Вместо да дадем думата на специалистите в тази област.
Христо Томов е начело на ИИ направлението в „Дриймикс“, той е и сред създателите на софтуерната компания. Има почти 20-годишен пъстър опит в различни роли в света на информационните технологии.
Докъде стигна изкуственият интелект? Как ще изглежда бъдещето, ако този тип технологии продължат да се развиват със същото темпо? Близо ли сме до предела на възможностите на големите езикови модели?
– През последните месеци, след появата на ChatGPT, хората се разделиха на две крайности, нека ги наречем „ще вземе хляба на всички ни“ и „за нищо не става“. Ти си от първите, казваш, че този тип технологии ще повлияят на всички професии по някакъв начин.
– Да, но има и нотка оптимизъм,
според мен няма да ни вземе хляба, просто ще направи работата по-приятна и удовлетворяваща.
Този тип технология ще е инструмент, един помощник. Той седи до теб, на твое разположение е, в същото време е безкрайно търпелив. Има безкрайна фактологична памет, помни безброй неща. Той няма да вземе работата на някой опитен програмист, но ще направи така, че досадните задачи да изчезнат или поне да намалеят драстично.
– Виждаме невероятен бум в тази област. Но всяка технология до момента, след такъв огромен ръст, минава през сериозен спад. Дали е възможно това да се случи и с прословутия изкуствен интелект?
– Той вече e минавал няколко пъти през подобни моменти – през 60-те години, при зачатъците на този тип технологии, е имало космически очаквания. Според мен сега, с големите езикови модели, отново ще се получи същото.
Защото в момента ИИ не се представя по обективен начин.
Много хора поглеждат повърхностно, докосват се до темата, правят някакви изводи и ги описват. Това надува балона, обществото натрупва нереалистични очаквания.
В същото време изкуственият интелект е много близо до момента, когато ще доставя стойност и няма да е само мода. Много сме близо!
– Според мен дори чисто технологично вече сме там. И е дошло времето да помислим за какво точно и докъде можем да го използваме.
– Там сме в някои области. Наример в генерирането и обработката на текст сме много близо, въпрос на време е хората да започнат да използват възможностите и да ги превърнат в нещо полезно.
В много други посоки сме по-далеч. Тези модели имат много повърхностно разбиране за света като цяло, там има още много работа, преди да се стигне до значими, практически резултати. В някои области сме там, в други не сме. Но навсякъде се приближаваме…
– Конкретно при генерирането на текст дали ще стигнем до момента, когато няма да има нужда човек да участва в процеса? Да проверява и оценява „написаното“…
– Може би
човекът ще е там, за да даде смисъл на текста – какво целиш, какво искаш да предадеш като информация.
При генерирането, форматирането, стиловото оформяне на текста вече сме много напред, поне на английски, при българския има нужда да се направят още няколко крачки, но се напредва бързо.
– Дали наистина скоро ще имаме тези технологии скоро на български? Според мен за по-малките езици просто нямаме достатъчно данни, така че този тип технологии да работят ефективно.
– Мисля, че това ще се случи като страничен ефект от всичко останало. Да, може би няма достатъчно данни за такова качество на обучението като на английски. Но първо моделите стават по-добри и могат да се учат с по-малко данни и второ: машинният превод е все по-добър. Така става съвсем възможно
при всяка технология текстът да се превежда на английски, да се обработва и да се превежда обратно на изходния език.
Например, на ChatGPT, като му кажеш да пише стихотворения и песни на български, според мен прави точно това – създава нещо на английски, после го превежда на български, а римата и ритъмът се губят.
– Оттам си личи, че му липсват и данните, както например, ако го питаме за българска политика.
– По принцип на ChatGPT не трябва да се разчита особено за фактология, например за българска политика.
Най-лесно е да му се присмиваш, когато се опитваш да му припишеш качества и приложения, които той никога не е претендирал, че има.
Например, ChatGPT никога не е претендирал, че е „онлайн търсачка“ и ще ти връща факти. Претендира, че работи добре с текст, ако например му дадеш да го резюмира или доразвие.
– Да, но GPT вече е част и от търсачката Bing и там претенциите му са други.
– От това, което добавиха към Bing, вече може да очакваш да ти дава и факти. И то ще се справи по-добре. Точно с тези примери ще е по-добър, защото първо пуска търсене онлайн и после прави анализ на резултатите.
– Мислиш ли, че ще стигнем до момента, когато ще имаме персонализирано генерирани новини?
– Със сигурност, просто защото ще стане лесно. Ако компанията, която по някаква форма ти предоставя новините, вече има информация за теб, създала е модел за това по какъв начин предпочиташ да ти се представят, ще стане твърде лесно за тях да модулира как да стигнат до теб. Както сега подбират кои новини да видиш, естествено,
следващата стъпка е те да са предадени така, че да те зарадват максимално, да те спечелят най-много.
– Това обаче няма ли да увеличи още повече проблеми като балона на филтрите?
– Със сигурност ще го има този ефект, но не знам дали с по-голяма сила. Разбира се, не е добре, че е филтрирано кои новини и как ще стигнат до теб. Но този проблем го има още отпреди развитието на технологиите, чисто психологически
хората са склонни да вярват на неща, на които още преди това искат да вярват.
Случва се толкова отдавна, още откакто сме си разменяли истории, всеки човек е вярвал на едни повече, отколкото на други. Технологиите го засилиха, като филтрират какво изобщо стига до теб. Според мен от това, че се модулира как да стига до теб, ефектът все пак ще е по-малък.
– Каква е твоята лична рецепта да се информираш балансирано?
– Не мога да кажа, че съм го постигнал идеално. Но със сигурност, ако човек съзнателно полага усилия да търси друга гледна точка, това помага.
Ако се интересуваш от различните гледни точки, и самите платформи започват да ти дават такова съдържание, защото решават, че имаш интерес.
Ако човек не чете само това, за което си казва: „Ей, харесва ми, това е моето, съгласен съм, още преди да съм го прочел“, ако поглежда и останалите текстове, може да помогне и на самите алгоритми да се балансират. Оттам нататък всеки изгражда доверие към конкретни платформи, институции, подкасти.
Няма сребърен куршум, който да реши проблема веднъж завинаги. Просто човек трябва да знае, че има проблем, да го държи в главата си и съзнателно да предприема стъпки така, че да търси различното мнение.
– Много специалисти казват, че ChatGPT не е нещо толкова революционно, появяват се много успешни езикови модели. Но OpenAI спечелиха голямо предимство с това, че направиха проекта си толкова масово достъпен.
– Според мен е хубаво да се прави разлика между езиковия модел отдолу, който е GPT-3.5 и продукта ChatGPT. OpenAI дръпнаха много пред всички останали именно с продукта. Докато моделът им най-вероятно е съпоставим с това, което имат останалите големи играчи – Meta и Google, те спечелиха, като показаха модела си чрез продукт, който всеки може да пипне.
Неотдавна се случи интересно развитие – Facebook пуснаха модела си LLaMA за академично ползване, данните изтекоха в торент. На базата на тях учени от Станфорд направиха Alpaca – алгоритъм, който дотренира модела така, че започва да се справя както ChatGPT. Ако имаш езиков модел, той още не ти дава възможността да говориш с него, да водиш смислен диалог. При ChatGPT проблемът е решен, като са вкарали огромна инвестиция в това хора да си говорят с него и да му казват кога реагира добре и кога – не, а той се учи от това..
В Станфорд използваха само 150 диалога, водени от истински хора, след това накараха ChatGPT да генерира още примери, направиха 50 000 и с тях дообучиха модела. Ефектът, постигнат с милионите долари, които OpenAI бяха инвестирали за финалното дотрениране на ChatGPT, беше репликиран само срещу 600 долара, с данни, генерирани наготово.
Този опит според мен е много показателен, защото
изведнъж тези технологии, което до днес бяха заключени само за големите корпорации, всеки може да ги дръпне и да ги стартира на своя компютър.
– Това не крие ли опасности?
– Опасно е колкото си искаш. И е хубаво, и е лошо. Хубаво е, че всеки може да експериментира и това ще доведе до много бърз напредък, ще се появят интересни приложения, ще се увеличи разбирането как работят тези технологии.
От друга страна, падат всякакви ограничения на това за какво ще ги използваш. Но това беше неизбежно, никой не е имал илюзия, че тези технологии няма да попаднат в ръцете на хората и че скоро няма да може всеки да си ги пусне и да прави каквото реши.
– Една от опасностите, за които се говори много, е киберсигурността – че така ще е много по-достъпно да се правят различен тип атаки. Кои са другите опасности, за които не се сещаме?
– Фалшивите новини според мен са голяма тема. Те ще се появяват по нови начини, не само както е сега – пускаш някаква новина и се надяваш да стане успешна. Може например много бързо да се генерират коментари. Да се постигне това, което в момента се прави с фермите за тролове, но без да са нужни огромни средства.
Според мен се подценява опасността
не само да се пласират фалшиви новини, то и чрез тях да се разруши окончателно доверието в истинските.
Дотолкова информационното поле да се наводни с шум, че сигналът вече да не може да се различи. Когато излезе истинска научна статия по даден проблем, хората, понеже са видели преди това 50 фалшиво генерирани, да си кажат, че и тя е такава. Много е опасно да се разбива доверието в източниците на информация. Трудно е хората да спрат да вярват на фалшивите новини, но може да се окаже проблем и да спрат да вярват на истинските.
– И това според мен вече се случва с пълна сила, най-вече заради начина, по който неглижираме журналистиката. Медиите не успяват да си намерят място в онлайн реалността, да се адаптират към новото време. Как изглежда според теб бъдещето им? Как трябва да се трансформират, за да са адекватни към света, в който живеем?
– Персонализираното съдържание със сигурност е един компонент, също и винаги достъпното съдържание. Това е стара новина, но линейната телевизия, при която трябва да си в 8 ч пред телевизора, за да видиш новините, не е актуална.
Според мен част от по-еднотипната информация ще се автоматизира съвсем.
Например, спортната журналистика – там, където просто трябва да предадеш нещо, което се е случило и то е някак безспорно. Резултатът от мача е такъв, ясно е кой е вкарал головете.
Но по-сериозната журналистика – например разследващата, много трудно ще се автоматизира, още много дълго време ще има поле за изява на истински и сериозни журналисти.
– Според мен обаче ИИ технологиите могат да са много полезни и тук, а все още не се използват масово. Преди 10-ина години се смяташе, че анализът, обработката на данни ще навлезе в работата на медиите, но това така и не се случва.
– Липсваха може би достатъчно интердисциплинарни хора, които имат поглед върху двете страни – журналистика и обработката на големи данни. Разбира се, това не значи, че няма да се случи.
Но има и друг момент – аудиторията на тези медии, които биха го направили, е такава, че и сама може да си направи изводите. Какво имам предвид – мислехме дали не може да се направи приложение, което анализира данните и дава допълнителна информация. Например за изказванията на депутатите – да преценява дали има лъжа в някакво изказване, да се градят индекси на доверие. И после се замислихме, че хората, които биха ползвали такъв софтуер, са същите, които така или иначе са по-критични и не вярват на лъжите. Може би има такъв ефект и в журналистиката с големи данни.
Това ще става все по-лесно и задължително. След като такива инструменти попадат в ръцете на крайните потребители, даже няма да има нужда журналисти да правят анализа, всеки ще може, въпросът е кой ще положи труда.
– Близо ли сме до предела на възможностите на големите езикови модели? Дотук по всичко личи, че не. Например, GPT-4 се оказа много по впечатляващ от предишните версии, Midjourney 5 е способен на нови чудеса, космически крачки на фона на предишните версии.
– Много е трудно да се каже. В някои посоки сме близо до предела, например колко голям може да стане един такъв модел, поне със съвременната изчислителна техника. Не очаквам нещо много по-голямо от GPT-4, въпреки че за него няма публична информация колко е голям откъм брой параметри. Що се отнася до предела на възможностите за това какво да правят алгоритмите, не бих посмял да кажа, че сме близо.
Там има един много интересен феномен на неочакваните способности. Ако вземем нещо конкретно, за което моделът не е трениран специално, в определен момент той рязко и изненадващо започва да се справя с него. Например задачата, в която по емотикони алгоритъмът се опитва да познае кой е филмът, тя е част от големия набор от критерии, по които се оценяват моделите, познат като BIG-bench. Бяха пуснали да проверяват езиковите модели, които изобщо не са тренирани за тази задача и до един момент се справяха много зле. Да, ставаха по-добри в основната си роля – да разбират езика и да довършват текста. С емотиконите обаче успехът си оставаше нулев, докато… в един момент скочи рязко.
Често се случват такива непредвидими явления – няма как да знаем кога моделът ще е способен на нещо странично, докато рязко не се оказва, че той вече се справя чудесно.
Постоянно се появяват такива неща, затова е много трудно да кажем, че сме близо до лимита,
буквално не се знае със следващата стъпка на усложняване на модела какви нови неочаквани резултати ще се подобряват.
– Официално тестът на Тюринг не е минат, но според мен това няма особена логика, по идея и по дух ChatGPT го минава – имаш срещу себе си нещо, което в огромен процент от случаите не можеш да различиш от събеседник човек. Тогава защо тестът си остава отворен?
– Според мен тестът на Тюринг от известно време не се възприема като много сериозен критерий в ИИ средите. Не е това, за което хората седят и тръпнат в очакване кога официално ще бъде постигнато. По-скоро ще е някаква маркетингова стъпка, когато някой официално обяви, че тестът е минат.
Междувременно са разработени много по-сериозни тестове и списъци с показатели, които да казват колко са напреднали технологиите. Адекватни са тестовете, които са в конкретни посоки, няма да е един генерален, след който да се каже: „Ето, постигнахме изкуствен интелект от човешко ниво“. По-скоро това ще е „човешко ниво в генерирането на текст“, „в решаването на математически задачи“. Ще има специфични тестове за всяко направление.
– Нямам търпение алгоритъмът да работи добре за това да превръща звуковия файл в текст на български. За повечето хора не е нещо особено, на мен би ми спестило доста време. Кои са най-интересните неща, които ти лично очакваш скоро да бъдат постигнати?
– Много бих се радвал на добре работещ персонален асистент. Колкото и хората да хвалят Сири и Гугъл асистента, те са много ограничени – човек намира 4-5 техни приложения и си ги ползва.
Гледам с нетърпение към технологиите помагат за създаването на софтуер, нещата се променят много бързо. След 2 години ще е много различно, съвсем друго преживяване.
Друга област са игрите – попаднах на дискусия защо обикновено основната механика там е да ходиш и да се биеш. Просто това беше най-лесно да се направи, досега не можехме да създадем игра, където основната механика е да разговаряш пълноценно с хората. Въобще, в развлекателната индустрията има потенциал за много сериозни промени. Какво ли ще се случи оттук нататък?