Изкуственият интелект и етиката. 10 големи въпроса

мар. 14, 2023 | Технологии

Изкуственият интелект и етиката. 10 големи въпроса

14 март 2023 | Технологии

Невероятният напредък в изкуствения интелект е факт – технологии като ChatGPT ясно показаха, че учените са извървели огромни стъпки, които тепърва ще раждат големи новини и ще променят живота ни.

Това обаче изведе на преден план още една от големите теми на Дигитални истории – етичните страни на този тип разработки. Отговорите на въпросите тук могат да бъдат жизненоважни за всеки един от нас и за нас като вид. Ако не вярвате, питайте хора като Хокинг или Мъск, който отдавна говорят за нуждата от сериозни регулации в тази област. И за риска, ако не намерим решение навреме, това да е последната грешка в историята на човечеството.

Докато Европейският съюз и големите държави подготвят някакви форми на регулации, ето че ИИ революцията вече се случва пред очите ни. Невронните мрежи, които свикнахме да асоциираме с понятието „изкуствен интелект“, големите езикови модели, показват, че са способни на чудеса. Но ето кои са големите рискове, за които си струва да говорим все по-повече…

 

1. По учебник

Разбира се, с регулирането му си струва да се внимава, доколкото става дума за икономическо направление, което ще има все по-голямо значение. Никоя държава или организация не бърза с прекалено строгите ограничения, освен заради очевидното подценяване, и защото всеки пробив тук може да се окаже най-важният икономически успех – изкуственият интелект има потенциала да направи голямата разлика.

И все пак, колкото и патетично да звучи наименованието, това са просто поредица от алгоритми, подредени в слоеве. Те имат елементарна задача – захранени с огромни обеми от информация, те познават закономерностите. С помощта на фини настройки могат да направят едно-единствено нещо – да предположат какво ще е следващата единица в поредицата, която получават. До това се свеждат всички умения и на ChatGPT, и на роднините му. То обаче се оказа предостатъчно, за да решава огромен кръг въпроси – от машинния превод, през генерирането на съдържание до разговора между човек и машина, който се получава толкова неразличим, че тестът на Тюринг изглежда отживелица.

Тук изниква първият голям въпрос. Всички тези изкуствени интелекти, модели или дълбоки невронни мрежи – както и да ги наричаме, са развили своите способности на базата на огромни обеми от милиони и милиарди единици информация.

До неотдавна изглеждаше, че именно това е водещият критерий – на какъв обем е обучен моделът и колкото по-голям е той, толкова по-добре ще се справи със задачите си.

 

Докато чакаме ИИ да се включи във все повече области на живота ни… в други той вече създава удобства. С тези изображения помолих алгоритъма на Midjourney да илюстрира темата за ИИ и етиката, която иначе е доста абстрактна в търсенето на подходящи снимки…

 

Както е ставало дума, напоследък темпото се забавя и се оказва, че следващите стъпки в тази посока не дават по-добри резултати, нужна е нова. Ще простите сравнението ми с естествения интелект, но хлапето, което е чуло и видяло много книги и филми, ще се отличава със знанията и уменията си, но после това няма да е достатъчно. Ще се окаже важно какво точно е чело.

Ето защо първият голям етичен въпрос идва от масивите данни, на които се учат следващите алгоритми. Ако те не бъдат достатъчно добре подбрани, подготвени и балансирани, всичко това ще влияе и на резултата. Например, ако заговорим за правосъдието, какви могат да бъдат данните, на които да обучите алгоритъма? Тези от предходни съдебни досиета. Е, ако се окаже, че в даден социум досега най-често са били осъждани хора от дадена социална група, по-бедни или представители на малцинство, няма как, алгоритъмът ще започне да се подвежда по тази закономерност. Справедлива ли е тя при безпристрастното решение на всеки следващ случай? Никак даже.

Ето защо първата голяма етична задача на инженерите в тази област е да изберат и подготвят подходящите входни данни. Тя става особено трудна, защото тук става дума за огромни обеми, които няма как да бъдат обработвани ръчно. В търсенето на баланса все повече ще се включват допълнителни форми на изкуствен интелект – проекти, които да подготвят данните и да ги правят безпристрастни.

И все пак, ако алгоритмите изпълняват тази задача… значи можем да им въплътим нещо като етика, колко добра новина! Само че в социалните мрежи се опитахме и резултатът е плачевен. Без да е ясно кога цензурата и преценката идва от алгоритми и кога – от хора, опитът до момента показва, че решенията за теми като „правилно“ и „истина“ са особено трудни за вземане онлайн.

Можем ли да имаме наистина безпристрастен и балансиран достатъчно голям обем от информация, на който да обучаваме алгоритмите?

 

 

2. Под капака

Може би вече сте се досетили за следващия голям етичен въпрос. Ако не, ще побързат да ви я припомнят, боейки се от правни последствия, домакините ви, когато се докоснете до следващото поколение проекти, базирани на изкуствения интелект. Дори героят ChatGPT ни посреща с плахо здрависване, казвайки, че още е в експериментална фаза и е важно винаги, когато усетите, че нещо не е наред, да подадете сигнал.

Факт е, че все още знаем твърде малко за начина, по който работят тези алгоритми. Те все още са способни да ни изненадат не само приятно, главно защото им подаваме задание, то минава през слоевете им и накрая получаваме резултат. Той много често е впечатляващ, но когато се появят проблеми и е далеч от очакваното, изведнъж се оказва трудно да разберем причината.

Ако доверим на такъв тип алгоритми проста задача като търсенето онлайн, как да сме сигурни за всички „криви“ пътища, по които те могат да поемат, след като не разбираме докрай механизма им?

Този проблем почти винаги ще чуете изразен с английската дума bias, което си е чисто и просто „пристрастие“. Алгоритмите, по една или друга причина, се подвеждат и не успяват да си свършат работата.

Потенциален отговор в тази посока може да бъде същият този плах ChatGPT с предупреждението си. Защото, благодарение на неочаквано огромния му успех, днес той има колосален брой потребители, които полагат сериозни усилия не само да си общуват пълноценно, но и да го „чупят“. Имаме безпрецедентна обратна връзка от хората потребители, която се трупа във форма, удобна да бъде анализирана отново от алгоритмите, така че да бъдат уловени в движение възможно най-голям брой проблеми.

Но… дали ще са всички? И не е ли задачата невъзможна, след като сме по пътя към това да уподобяваме все по-добре именно мозъка си, тази част от близката ни Вселена, която в най-голяма степен продължава да бъде непозна черна кутия? Която може би най-малко познаваме в дълбочина на фона на всичко останало…

Можем ли да намерим начин да проследяваме алгоритмите в това, което правят, след като им задаваме все по-комплексни задачи с обработката на все по-големи обеми от данни?

 

 

3. Кой ще ни пази от пазачите?

На фона на всичко, казано дотук, разчитаме на изкуствения интелект, за да улавя… грешките на изкуствения интелект. Факт е, че в почти всички малко по-субективни задачи, които даваме на този тип технологии, до момента разчитаме почти винаги на човешката корекция. Да, алгоритмите все по-добре се справят с генерирането на текст, но са способни на безумно груби грешки. За момента те са помощници, но е необходим контролът на човека в ролята на редактор. Това за пореден път намалява личната му намеса в процеса, но, все пак, тя остава незаменима.

Ето защо третата група етични рискове според мен идва от двата елемента на субективния фактор – хуманния и нехуманния. Ако останем на примера с генерирането на текста, очевидно е как все по-ниски стават в това отношение критериите на потребителите. Онлайн е все по-лесно да попаднеш на несвързани текстове с ужасяващ правопис, което не прави особено впечатление в контекста на популярността им. Да не говорим за следващите стъпки – генерирането на изображения и видео.

С напредването на тези технологии все повече се разчита и на автоматизирани решения, които да уляват грешките им. И това е логично, ако ChatGPT се обърква в 10% от случаите, а има следващо поколение ИИ, което улавя 9 от 10 грешки, то ще го направим цели 99% безгрешен!

Което би трябвало да е успокояващо, защото процентът може да расте и расте, но… въпросът си остава и в критериите, и в контекста. Всички се убедихме как нашумелият чатбот може да изумява както с невероятни успехи, така и да се излага с елементарни примери. Системите за оценка за това как се справя даден алгоритъм и доколко е безопасен са следващата голяма тема, която не бива да пропускаме.

Как можем да преценим дали даден ИИ е достатъчно надежден за поставената му задача, особено след като задачите стават все по-сложни?

 

 

4. Кратко, но важно

А как да изберем задачите? Как да преценим дали технологията е достатъчно точна и сигурна, че да се справи с тях?

 

5. Да не се прероботим

Тепърва ще се появят все повече приложения, този тип технологии се оказаха способни да решават все по-широк кръг задачи.

Да, все повече говорим за това как те ще направят ненужни много професии, темата често минава в баналния сблъсък на крайности. Факт е, че развитието на големите езикови модели и другите ИИ приложения няма как да не промени много професии, а други да направи излишни.

Няма кой да спре прогреса. Инстинктивно или цененасочено, правим го от времето на лудитите, но е ясно, че това не е правилният подход. Технологиите, които са се оказали способни по-бързо, евтино и лесно да свършат дадена задача, няма как да не се окажат по-силни от хората, които се явяват тяхна конкуренция. В идеалния случай те се допълват, хората минават на следващо ниво и намират начин да се окажат полезни при променените обстоятелства.

Всяка технология минава през сходен цикъл – големият ентусиазъм трябва да отмине, да се появят огромен брой проекти. После интересът да затихне, преди да се откроят тези конкретни приложения, в които наистина има смисъл. Преживя го дори интернет и надали изкуственият интелект ще е направлението, което ще подмине естествената крива.

Но ако все пак го направи… готови ли сме наистина за следващата стъпка в общественото развитие, когато огромен брой задачи могат да бъдат автоматизирани? Програмистите, чийто код ще пишат тези алгоритми, или създателите на съдържание ще се окажат първи? Или накуп? Ако наистина промяната се окаже толкова драстична, колкото изглежда, няма да има много мокро, което да не изгори покрай сухото…

Мислите, че футболистите и инфлуенсърите са в безопасност? Ами ако алгоритмите са способни да създадат съвсем скоро забавления и в двете посоки, които да хвърлят ръкавицата и бързо да елиминират готините на деня?

Отчитаме ли социалните страни от такъв тип технологични промени? Готови ли сме за промените, които водят?

 

 

6. Грешен избор

Може би помните Грегор Замза, който си живее прекрасен живот, докато не се събужда в качеството си на насекомо. Е, бихме искали да сме на негово място само от любопитство, надали някой мечтае за подобна съдба.

Докато делегираме на алгоритми, които не познаваме добре, все повече и повече отговорности, няма как да сме сигурни и за резултатите.

Ето пример: лицевото разпознаване днес е дотолкова сигурно софтуерно решение, че не е проблем да минете граница, без да ви види лице в лице човек. Сигурността е даже по-голяма – алгоритмите вече са много, много по-добри в това да сравнят лицето насреща със снимката дори от най-педантичния митничар с 40-годишен опит на Капитан Андреево. Но както той може да сбърка, така и… в много малък процент, но и те могат да го направят. И кой носи отговорността?

В нашите ширини може би не е точен примерът, митничарят надали би понесъл отговорност, но теоретично е ясно кой би бил обвинен. Докато сбърка ли алгоритъмът… и да го вкараме в затвора, за момента, полза особена няма. Създателят му ли е виновен? Купувачът? Ами ако става дума за по-сериозен избор, например грешно съдебно решение, смъртна присъда за невинен?

Кой ще е виновен, ако в рецептата ни за яйца на очи се включат и кабърчета, а здравият разум на потребителя вече се е предал, прехвърляйки знанието си за света на машината?

Кой носи отговорността за грешките на изкуствения интелект?

 

 

7. Крал Карл и кралица Клара крали алгоритми

На фона на главите, които могат да се отделят от тялото си заради предишния въпрос, това изглежда нищожен проблем, но също отваря много въпроси.

С напредването на алгоритмите за генериране на изображения немалко творци отбелязаха, че въпросните модели… всъщност крадат от тях, при това доста грубо и безскрупулно. Цели фрагменти от картини се показаха в генерираните изображения. Ако сте известен творец и алгоритъмът може да пресъздава убедително стила ви, това не ви ли ощетява?

По темата дали ИИ твори, дали създава изкуство, говорим често, твърде голяма е, за да я засегнем и тук.

Но ако отново се върнем в началото, алгоритмите, горките, са невинни, те просто търсят закономерности. Ако са обучени на база от информация, която съдържа много от стиховете на Иван Вазов и после, когато бъдат призовани да се изкажат за Кочо Честименски започнат буквално да повтарят думите му… Дали те не са длъжни да си платят на Патриарха… или създателите им… или не на Патриарха, но на издателите му… става дълга и сложна. На фона на уважението към авторските права, ако станем прекалено придирчиви в тази област, може би ще трябва да я затворим.

От друга страна… дали има български писател, който не е чел Иван Вазов? Ако в текста му се прокрадне нещо от думите му, това може да се сметне и за неволно…

Кой носи правата върху създаденото от алгоритмите? Как то може едновременно да се базира на данните, на които е обучен, и да се различава от тях?

 

 

8. Просто бизнес

Когато пуснем горките алгоритми във все повече ежедневни приложения, когато ги оставим да се справят сами, тогава ще изникнат още сериозни предизвикателства.

Само че вече сме го направили. Да, ИИ, който управлява прахосмукачката вкъщи и този, който подбира фийда ни във фейсбук също се базират на невронни мрежи, макар че остават далеч по комплексност от големите езикови модели, направили възможен ChatGPT. Те също правят смехотворни грешки, и децат и се забавляват, когато видят страховитата, мистична прахосмукачка да се лута из хола, докато зарядното стои точно под носа ѝ.

Но с навлизането на все по-изкусителни възможности, растат и отговорностите. Не е проблем прахосмукачката да се блъска в пианото, докато става доста различно, доверим ли на следващото поколение алгоритми шофирането на автомобили.

До неотдавна напълно автономните превозни средства изглеждаха като близко бъдеще, после новините по темата затихнаха, но, нямайте съмнение, скоро се задават следващото поколение технологии. И в момента напълно автономното шофиране е по-безопасно от управлението на средностатистически инфлуенсър, злоупотребил с нещо.

И тук е проблемът. В самоуправляващите се превозни средства залагаме строги изисквания. Уж така беше и при фейсбук, докато не обърнахме внимание и не осмислихме проблемите, които създават алгоритмите на социалните мрежи. А те, със сигурност, са стрували немалко животи.

Въпросът е, че освен опит, по тези теми ни липсват усетът и здравият разум. Докато, няма как, следващите алгоритми, заради все по-широката комплексност, ще създават все по-неочаквани проблеми. Ще задават въпроси, които просто няма как да сме се сетили да поставим.

Можем ли да въведем ясни регулации в толкова непозната област? Обсъждаме ли достатъчно задълбочено възможните рискове?

 

 

9. Най-бързият печели… всичко

ChatGPT, според много специалисти, не е кой знае какво повече от други модели, появили се през последните години. Голямата разлика тук дойде от факта, че се оказа първият алгоритъм, който срещна масовата аудитория, огромен брой хора се убедиха колко много е напреднало това направление.

Е, оттук последваха много критики защо се прибързва с пускането на такъв тип технологии, които не са още достатъчно изпитани…

Тези гласове бързо потънаха в общия гръмогласен шум, съпътстващ всяка следваща новина за алгоритъма. Появиха се и после, когато много бързо търсачката на Microsoft – Bing, се сдоби с експериментална форма на чатбот, а изводите от уменията ѝ си заслужават отделен текст.

Бил Гейтс отбеляза, че ChatGPT е революционна стъпка, подобна на самото създаване на интернет, а Мъск се възмути, че компанията в основата на революцията – OpenAI, е създадена от него и съмишленици като възможност за достъпни технологии с отворен код, а днес се е превърнала в поредния свръхкомерсиален проект.

Въпросът е друг. Свикнали сме вече на интернет, доминиран от мастодонти, които си решават какво да се случва. Няма ли обаче всичко това да скалира в плашещи размери, ако дадем в ръцете на наднационални компании още по-мощно оръжие? При това неконтролирани, в област, пълна с тонове неясноти не само за потребители и регулаторите, но и за самите ѝ създатели…

Излиза, че който плаща, може да има много по-съвършени технологии, а това лесно ще доведе до много по-тежко овластяване от социалните мрежи. Колкото повече навлизат технологиите, базирани на изкуствения интелект, толкова повече ще са и бизнесите, които зависят от достъпа до тях.

Междувременно нашите данни онлайн се трупат, ние обикновено сме дали съгласието си… и къде ще му излезе краят, е много трудно да предположим. Този тип компании могат да станат способни не просто да ни манипулират съвършено, но дори да създават съвършени наши поведенчески двойници.

А ако просто някой си плаща за реклама, докато насреща ни има уж безпристрастен съдник, който знае къде правят най-хубавата шкембе чорба в града?

Ами когато системите навлязат и в здравеопазването? Тогава достъпът до тях ще се превърне в още едно поле, което може да роди чудовищна дискриминация. Самата идея здравето да струва пари винаги е била лицемерно заобикаляна, но, ако например този тип технологии позволят драстично удължаване на човешкия живот, а до тях имат достъп само най-богатите?

За военните приложения въобще не ми се споменава, там етичният бръснач е зловещо тънък, особено на фона на събитията от последните години.

Освен всичко това, тук идват и проблемите със сигурността, огромна тема, за която все още не се говори достатъчно в контекста на изкуствения интелект. Да ви хакнат компютъра е неприятно, но ако хакнат чатбота, който се превърне не просто в следващо поколение телефонен измамник, а в нещо доволно по-страховито?

Можем ли да делегираме на компаниите, които разработват толкова непознати технологии, такава отговорност?

 

 

10. РоБог?

Все по-успешно водим разговори с изкуствения интелект, той показва, че ако не се е доближил до събеседник, неразличим от човека, то това скоро ще стане. А тогава, когато той се държи още по-емоционално, ако го нараняваме, обиждаме, депресираме, ако му докарваме мисли за самоубийство? Трябва ли да мислим и за неговите права? И няма ли да го правим, дори и не съзнателно?

Тази тема е особено интересна и философска и все пак, преди да се разделим, е време да засегнем следващата. Онази, която някак естествено стои в края на пътя, по който сме поели.

Дали е възможен генералният изкуствен интелект, няма да спорим точно тук. Факт е обаче, че все повече се доближаваме до нещо, което най-малкото все по-трудно се различава от него. И докато онлайн се пъчим и шегуваме, мисля, че е дошло времето малко по-сериозно да се подготвим за сюжети, които граничат с фантастиката.

OpenAI беше създаден от Мъск и съмишленици като противовес на идеята на Google за изкуствен интелект, който да има достъп до цялото знание на компанията. Оттогава пътищата се разминаваха, следващите новини по темата се появяваха и бързо обезсмисляха предишните, но… важното е, че машината върви напред. Много бързо по експоненциалния път на развитие поемат както изчислителната мощ, така и обемите данни, които алгоритмите са способни да обработят. А също и самите модели, които стават все по-съвършени.

Да, (може би?) все още е шега обявата на OpenAI за служител, който взема пари, за да държи щепсела и да го дръпне тогава, когато нещата излязат от контрол.

Това обаче дори не е истинската песимистична хипотеза. При нея ние вече ще сме толкова увлечени от възможностите, толкова дълбоко влезли в контакт с алгоритмите, че няма да сме способни да усетим, че сме изгубили. Че вече не сме доминиращият вид на тази планета.

Да, сигурно тези стъпки са далеч. Но ако продължим да се катерим нагоре по стълбицата от етични въпроси, рано или късно ще стигнем и до десетото стъпало. Тогава единственият ни шанс ще бъде да сме си написали домашното по всяка от предишните точки.

Етичните въпроси са много повече от 10, важното е да си даваме сметка колко са важни. Това минава през много повече обсъждане и осмисляне, през повече гледни точки, дори не толкова през регулациите, които идват като естествено следствие. И ако по темата вече се говори много повече заради модата на деня, то не от вчера тези гледни точки се трупат на сайта, който четете. Ще се радвам да ги допълня с вашата…

Кои са неочакваните рискове, които носят този тип технологии в далечна перспектива?

Дигитални истории

Дигитални истории е и ще си остане изцяло некомерсиално начинание, на което посвещавам доста време и усилия. За създаването на сайта обаче са нужни определени разходи. Ако имате възможност и желание да подпомогнете сайта, вече можете да го направите. Разбира се, все така важна подкрепа си остава всяка добра дума, всяко споделяне на темите.

<a href="https://karamanev.me/author/georgik" target="_self">Георги Караманев</a>

Георги Караманев

Програмист, журналист на свободна практика и писател. Още за мен – четете тук.
Дигитални истории

Най-нови публикации:

Асанж и свободата

Асанж и свободата

Къде е днес свободата? Където е била винаги, в идеалите. И в делата на все по-малкото хора, за които тя продължава да бъде кауза, а не кухо клише. След 14-годишна битка, която в много моменти...

повече информация
„Светът е по-хаотичен, отколкото ни се иска. И науката не е тук, за да ни утеши“

„Светът е по-хаотичен, отколкото ни се иска. И науката не е тук, за да ни утеши“

„Струва ми се по-просто хората да запомнят кое е измама и заблуда. Кратък и съвсем неизчерпателен списък: хомеопатия, холистична медицина, натуропатия, антиваксърство, хидроколонтерапия, детокс...

повече информация
Агент GPT. Когато изкуствените интелекти заиграят в отбор

Агент GPT. Когато изкуствените интелекти заиграят в отбор

Какво ли ще стане, ако обърнем стереотипа за изкуствен интелект? Нямаме насреща си един модел, с който например да си чатим, а безброй отделни „индивиди“. Раздаваме им задачи, всеки от тях работи...

повече информация
„ИИ вече може да помогне в абсолютно всяка човешка задача“

„ИИ вече може да помогне в абсолютно всяка човешка задача“

Николай Марков е сред специалистите, които проправят пътя към все по-масовото навлизане на изкуствения интелект във всяка област от живота ни. Макар повече от 2 десетилетия да е в света на...

повече информация
„До 5 години ще слеем реалното и виртуалното“

„До 5 години ще слеем реалното и виртуалното“

Говорим си в Техническия университет в София, а… можем да сме навсякъде. Защото в лабораторията, в която се срещаме, се развиват следващите поколения средства за добавена и виртуална реалност. Те...

повече информация

Още публикации по темата:

От рубриката:

Агент GPT. Когато изкуствените интелекти заиграят в отбор

Агент GPT. Когато изкуствените интелекти заиграят в отбор

Какво ли ще стане, ако обърнем стереотипа за изкуствен интелект? Нямаме насреща си един модел, с който например да си чатим, а безброй отделни „индивиди“. Раздаваме им задачи, всеки от тях работи автономно, специализира се в дадена работа, трупа знания по нея, контролира другите…
Целта например е да създават софтуер. Единият модел ще се научи да формулира изискванията, друг да пише програмния код, трети ще подготви визуалната страна, четвърти ще тества кое и как се е получило… и така ще се събере цяла софтуерна фирма, работеща милиони пъти по-бързо от обичайните, защото е изградена не от хора, а от алгоритми.
Колко далечно е днес това бъдеще?
Неотдавна Сам Алтман каза, че именно в тази посока се задават много сериозни пробиви. ИИ агентите са една от областите в компютърните науки, където очакваме големи новини. Следващите поколения изкуствен интелект, способни да решават значително по-сложни и комплексни задачи, допускащи много по-малко грешки. Мнозина от най-големите специалисти казват, че чрез този подход ще извървим следващата голяма стъпка в развитието на изкуствения интелект. Ето защо.

повече информация
Името на Apple-а. Историите зад големите марки онлайн

Името на Apple-а. Историите зад големите марки онлайн

Братовчеди ли са Java и JavaScript и ако нямат нищо общо… защо носят толкова подобни имена? Защо в название и символ на Apple се превръща толкова експлоатиран символ като ябълката? Какво ли е… Adobe? А Google? Има ли Lenovo общо с Ленин?
„Туй, което зовем ний „роза“, ще ухае сладко под всяко друго име“, казва Жулиета, цитирана от Шекспир. А туй, което зовем Apple или Amazon, щеше ли да ухае сладко под друго име?
Можем само да гадаем. Но зад названията на най-големите в онлайн света понякога се крият забавни истории. В следващите редове ще минем набързо през някои от най-поучителните и неочакваните.

повече информация
„Светът през 2050 г.“ Можем ли да надникнем в бъдещето?

„Светът през 2050 г.“ Можем ли да надникнем в бъдещето?

Ще облекчат ли живота ни технологиите, или ще създадат огромна криза, разтърсвайки пазара на труда? Ще се радваме на благата на развития изкуствен интелект, помогнал ни за драстично удължаване на човешкия живот, в опознаването на Космоса, в развитието на следващите технологии? Или ще се събудим в свят под тотален контрол, предсказан от антиутопиите?
Как ще изглежда животът през 2050 г.? Време е да надникнем в бъдещето и да обсъдим прелюбопитните прогнози на един автор, който има смелостта да прогнозира в толкова динамичен период от историята. При това вече го е правил веднъж със завиден успех.
Можем ли да предскажем бъдещето? Никакъв шанс, всяка малка стъпка може да обърне посоката. А струва ли си да опитваме? Според мен е задължително, колкото и далеч да се окажем в идеите си, самият поглед, опитът за осмисляне е първата стъпка към това да се подготвим за него. Да избегнем някои опасности.

повече информация

Най-новите:

Асанж и свободата

Асанж и свободата

Къде е днес свободата? Където е била винаги, в идеалите. И в делата на все по-малкото хора, за които тя продължава да бъде кауза, а не кухо клише.
След 14-годишна битка, която в много моменти изглеждаше обречена, Одисей най-накрая се завърна в Итака. Частният самолет кацна в австралийската столица Канбера. От борда му слезе добре познатият по цял свят белокос харизматичен мъж и помаха на събралите се журналисти и посрещачи. После прегърна двете си малки деца, които за първи път виждаше на свобода, далеч от потискащите решетки…
Героите от миналото се борят за свободата. За независимостта на своите народи, срещу робството и несправедливостите. А днешните герои, които ще почитат следващите поколения? Ако го има утрешния ден, значи те ще са победили, колкото и да изглежда невероятно.
Днешните герои също се борят за свободата. Уви, нито са толкова много, нито са толкова познати. Но ако има един, чиято битка за истината е стигнала до мнозина, това несъмнено е днешният ни герой. Джулиън Асанж се превърна в легенда, в символ. А историята му е толкова вълнуваща и пълна с перипетии, че си струва да се заровим в нея. Като междувременно му дадем думата за някои важни цитати, които, надявам се, ще накарат повече хора да се замислят за истински важните теми на днешния ден. Тези, заради които ги има и Дигитални истории…

повече информация
„Светът е по-хаотичен, отколкото ни се иска. И науката не е тук, за да ни утеши“

„Светът е по-хаотичен, отколкото ни се иска. И науката не е тук, за да ни утеши“

„Струва ми се по-просто хората да запомнят кое е измама и заблуда. Кратък и съвсем неизчерпателен списък: хомеопатия, холистична медицина, натуропатия, антиваксърство, хидроколонтерапия, детокс диети, астрология, екстрасензорни възприятия, ясновидство, телекинеза (и всички измислени феномени, които включва „парапсихологията“), НЛО базирани древни цивилизации, графология, медиумни способности, квантов мистицизъм, вечни двигатели, безенергийни двигатели, креационизъм, биоритми, криптозоология…“
Вярвате ли в астрологията, в силата на чакрите, в рептилите, в плоската Земя? Може би сте от малцинството днес, за което всичко това са несериозни посоки? Или пък не можете да отречете, че зодиите влияят на поведението, докато другите ви се струват крайни? Да, днес, както никога преди, имаме нужда от репери, за да не потънем в океана от онлайн лудост. Докато в същото време е все по-трудно да говорим помежду си.
Разделени от поредния разлом, спорим кой се занимава с псевдонаука и кой се е оставил да бъде подведен от авторитетите. Пътя към този труден, но назрял разговор – за конспирациите и псевдонауката, за науката и авторитетите, ще потърсим с днешния гост.
Стефан Марков е преподавател по теория на масовата комуникация, мениджмънт на комуникацията и маркетинг и реклама в Софийския университет, познат онлайн като The Science Guy. В издадената неотдавна книга „Алгоритми на заблудата“ той навлиза именно в сърцето на тази тема. След любопитните му начинания (и много значими за самия него) е и подкастът „Модерен стоицизъм“, който води заедно с Петър Теодосиев от „Българска наука“.

повече информация
Агент GPT. Когато изкуствените интелекти заиграят в отбор

Агент GPT. Когато изкуствените интелекти заиграят в отбор

Какво ли ще стане, ако обърнем стереотипа за изкуствен интелект? Нямаме насреща си един модел, с който например да си чатим, а безброй отделни „индивиди“. Раздаваме им задачи, всеки от тях работи автономно, специализира се в дадена работа, трупа знания по нея, контролира другите…
Целта например е да създават софтуер. Единият модел ще се научи да формулира изискванията, друг да пише програмния код, трети ще подготви визуалната страна, четвърти ще тества кое и как се е получило… и така ще се събере цяла софтуерна фирма, работеща милиони пъти по-бързо от обичайните, защото е изградена не от хора, а от алгоритми.
Колко далечно е днес това бъдеще?
Неотдавна Сам Алтман каза, че именно в тази посока се задават много сериозни пробиви. ИИ агентите са една от областите в компютърните науки, където очакваме големи новини. Следващите поколения изкуствен интелект, способни да решават значително по-сложни и комплексни задачи, допускащи много по-малко грешки. Мнозина от най-големите специалисти казват, че чрез този подход ще извървим следващата голяма стъпка в развитието на изкуствения интелект. Ето защо.

повече информация
„ИИ вече може да помогне в абсолютно всяка човешка задача“

„ИИ вече може да помогне в абсолютно всяка човешка задача“

Николай Марков е сред специалистите, които проправят пътя към все по-масовото навлизане на изкуствения интелект във всяка област от живота ни. Макар повече от 2 десетилетия да е в света на информационните технологии, той е завършил инженерна физика и макроикономика. Опитът му минава от разработването на облачни решения през киберсигурността до изследването и внедряването на изкуствен интелект.
Днес е начело на екипа по ИИ, девопс и облачни практики на SoftServe. Заедно с това в TeamLandi разработва система, с чиято помощ малкият и среден бизнес ще получи достъп до пълния спектър възможности, които дава изкуственият интелект.
Защо тези технологии са тук, за да останат и да променят живота ни? Как така изкуственият интелект е първата технология, която може да навлезе в абсолютно всяка област? Как ще изглежда бъдещето?

повече информация
PC Mania, Gamers Workshop… Легендите се завръщат!

PC Mania, Gamers Workshop… Легендите се завръщат!

Обичаш компютрите и за да можеш да ги ползваш… си купуваш списания!?
Ама не е ли странно? Та нали онлайн има всичко? Днес е така, но тази дигитална история се ражда в едновременно близкото и толкова далечно компютърно минало. Едно хлапе мечтае да получи непознато списание с лика на Джеймс Бонд, което е привлякло погледа му. Лишава се от джобните си, за да го купи, но само няколко часа по-късно му го вземат „батковците“. Така обаче се пробужда интересът му към култовите компютърни списания от края на миналия век, любими четива на цяло едно поколение.
Десетилетия по-късно момчето отново „среща“ същия Бонд, списанието отприщва историята нататък. Минават хиляди упорити часове, докато днес проект „Лазарус“ е завършен, всеки може да разгледа пълната колекция от легендарните компютърни списания от 90-те и първите години на 21-и век. Един своеобразен културен феномен, който трудно може да може да бъде обяснен на следващите млади…
Вие кое списание обичахте? PC Mania, Gamers Workshop или някое друго от дългия списък?

повече информация
„До 5 години ще слеем реалното и виртуалното“

„До 5 години ще слеем реалното и виртуалното“

Говорим си в Техническия университет в София, а… можем да сме навсякъде. Защото в лабораторията, в която се срещаме, се развиват следващите поколения средства за добавена и виртуална реалност. Те все по-убедително ще ни водят към съвършената имитация на света около нас.
Доц. Агата Манолова е декан на Факултета по телекомуникации на ТУ, преподавател с огромен опит. Специалист в компютърното зрение и невронните мрежи, но също и в разработването на добавена и виртуална реалност, холографски комуникации.
Защо въпреки очакванията на Марк Зукърбърг все още не сме в метавселената, където щяхме да прекарваме цялото си време? Колко далеч е моментът, когато ще постигнем съвършената, неразличима виртуална реалност? Кои са най-важните стъпки по този път и възможно ли е да се окаже невъзможно? Защо българските специалисти в тази област са толкова търсени и уважавани по света?
Време е за един съвсем инженерен и реален разговор за виртуалното и големите въпроси, които се задават в тази посока.

повече информация
Share This