„ИИ революция!“ Когато шумът дойде в повече…

авг. 17, 2021 | Технологии

„ИИ революция!“ Когато шумът дойде в повече…

17 август 2021 | Технологии

Изкуственият интелект може да удължи живота ни драстично, а и да го направи по-хубав по толкова много начини. За това сме ви разказвали немалко Дигитални истории и още много ви очакват. Вярвам, че един ден той може да замени (или поне да допълни или подпомогне) журналистите, програмистите, дори политиците. Помага ни да прогнозираме пандемията. Напоследък обаче това словосъчетание се използва толкова безогледно и маркетингово, че наистина си струва винаги, когато го чуем, да имаме едно наум.

Колкото по-нашумяла е една област от познанието, толкова по-привлекателна става и за измами, питайте Остап Бендер. От кръвопускането и пиявиците до нанотехнологиите, много е яко да сложиш пелерината на ултрамодерната технология и да избиеш рибата. Понякога прекалено буквално.

Да, безобидно, макар и малко наивно е да слагаме етикета на всичко, търсейки евтина слава. Да, няма нужда черпакът за шкембе чорба да е с изкуствен интелект. И това е немалка част от проблема – заради безогледното ползване на този термин, това руши реномето и на сериозните проекти.

По-лошо обаче става, когато става дума за особено чувствителни области, като например медицината. ИИ днес е навлязъл в много нейни области… Но какво се случва, когато технологията, на която сме се предоверили, започне да не изпълнява задачите си? И пропусне най-важната част от хипократова клетва: Primum non nocere. „Преди всичко, не вреди…“

Проф. Гари по безпътните гари

Проф. Гари Н. Смит е от малкото учени, които се опитват да привличат вниманието именно към подобни теми. Той се занимава с изкуствен интелект, с икономика, автор е на 3 книги, излезли под марката на издателството на „Оксфорд“. Основният лайтмотив в работата му е да ни предупреждава: ИИ идва, за да промени живота ни. Но ако се предоверяваме на всичко, което се скрие зад атрактивното му название, ще страдаме. За „9 клопки в науката за данните“ той дори печели наградата на Американската асоциация на издателите за популярна наука.

Тук например той дава един особено показателен пример.

„Епик системс“ е най-голямата компания в Америка, която се занимава с обработване на данните за здравословното състояние на хората. Това е, най-меко казано, внушително постижение – знаете колко сериозни са регулациите за съхранението и анализа на лични данни, а какво остава за най-уязвимата информация, тази, свързана със здравето!

И на този фон, „Епик“ официално и направо епично имат достъпа до данните на 180 милиона души, цели 56% от американците!

„С пациента в сърцето“, гласи силно емоционално подбраният слоган на компанията. В портфолиото ѝ има 20 изпипани алгоритъма, базирани на изкуствения интелект, чиято цел е да предскажат, потвърдят дадена диагноза, или да предположат за колко дни ще бъде хоспитализиран определен пациент.

 

части от роботи

Снимка: Alessio Ferretti, Unsplash

 

Гаргари и алгоритми

Както отбелязва проф. Гари Смит, прекалено често се случва да чуем, че нещо е дело на съвременната магия „изкуствен интелект“. И, понеже е „търговска тайна“, „патент за милиони“ или каквато и да е друга безценност, не е ясно какво точно се случва в черната кутия на алгоритъма. Нито е възможно да се правят някакви елементарни проверки с конкретни външни данни.

Едно от основните призвания на епичния „Епик“ е да предсказва случаите на сепсис, внезапна инфекция, водещата причина за смъртност в болниците. Както пише проф. Смит, „сепсисът се получава, когато човешкото тяло реагира прекалено бурно на инфекцията и изпраща в кръвообращението вещества, които могат да разрушават тъканите или да пречат да органите да функционират нормално. Ранното диагностициране буквално може да спасява животи, но… сепсисът е много трудно да бъде диагностициран рано“.

И така, „Епик“ има особено перспективен алгоритъм, базиран на изкуствения интелект, който казва, че може да предскаже с точност между 73 и 84% опасността от сепсис!

Страхотно, нали? Толкова много спасени животи!

Само че съвсем неотдавна, в първия ден на август, в реномираното издание „JAMA, вътрешна медицина“ бяха публикувани прелюбопитни данни на екип от изследователи, проучили болничните данни на 38 455 пациенти, преминали през Университетската болница на Мичиган. 6,6% от тях, или 2552-ма, наистина развили сепсис. Как обаче се е справила системата, която е трябвало да предскаже дали ще се стигне до проблем?

Следващата елементарна табличка казва всичко. Отгоре с „Епик+“ и „Епик-“ са отбелязани прогнозите на алгоритъма дали при даден пациент ще се развие сепсис, а отдолу е реалният резултат.

Епик+ Епик- Общо
Развили 843 1709 2552
Не развили 6128 29 775 35 903
Общо 6971 31 484 38 455

 

Грешка не човешка

Проба, грешка. Цифрите май и сами показват колко далеч се е оказал алгоритъмът от истината.

Но все пак проф. Гари Смит откроява две основни зависимости:
– От 2552 пациенти със сепсис системата е генерирала предупреждение само за 843, което е едва 1/3.
– От 6971 предупреждения прогнозата се е потвърдила само при… 843 души. Дванайсет процента!

Погледнато наобратно: системата се е провалила при откриването на 67% от случаите, а от дадените предупреждения 88% са се оказали неточни.

Тоест, дори ако просто седите и хвърляте монета, процентът на познатите случаи може би ще се окаже доста по-точен.

А сега си представете, че наистина от този алгоритъм, за който са похарчени огромни суми, не просто се очаква да предупреждава, а по някакъв начин от него директно зависи здравето на пациентите… Направо плашещо, нали?

 

изкуствен интелект

Снимка:Maxim Hopman, Unsplash

 

Епично

Проф. Смит отбелязва също, че много от другите системи, развивани от „Епик системс“, всъщност са много, много по-неубедителни в прогнозите си, отколкото е заложено в обещанията. И изследователят предупреждава, че определено не е добра идея да се дава достъп до огромна здравна информация с мултимилиардни проекти на уж базирани на изкуствения интелект решения. Които обаче в действителност се оказват много, много по-нескопосани от лустросаната си обвивка.

Редно е подобни системи да бъдат тествани и оценявани по-внимателно от учените, преди да се въведат в практиката. При това от независими екипи. А не просто да имаме една черна кутия, която приема някакви данни и „изплюва“ резултат.

Проблемът, разбира се, съвсем не се изчерпва с една фирма.

 

Д-р Уотсън в бюрото по труда

Все още в сферата на медицината, струва си да споменем и проекта „Д-р Уотсън“. Да, това е начинание на IBM, базиращо се на същия този суперкомпютър „Уотсън“, който не спря да побеждава хората в разни състезания. Тук обаче изгуби.

Една от идеите на създателите му беше да го вкарат в медицината. Отне 5 години и 60 милиона долара за разработка, преди „д-р Уотсън“ да бъде „уволнен“ от центъра за лечение на онкологични заболявания „Андерсън“ в Хюстън, заради „многобройни примери за небезопасни и неправилни препоръки за лечение“.

И последен медицински пример. В реномираното списание „Нейчър“ през март тази година бе публикуван сравнителен анализ на 2212 различни публикации, използващи модели за машинно самообучение в опит да предсказват или да диагностицират развитието на ситуацията с коронавируса.

Резултатът: „Нито един от моделите не показва потенциал за евентуално прилагане в клинични условия“.

 

робот

Снимка: Lukas, Unsplash

 

Груботи

Немалко ИИ проекти пък се провалят доста зрелищно, дори комично. Пословичен е примерът с чатбота Тай, многообещаващ проект на „Майкрософт“ от 2016-а за технология, която управлява туитър акаунт с идеята да води разговори досущ като типичен американски младеж.

Е, не знаем какво е типичното за повечето младежи, но Кай доста бързо показва силно плашещи страни от характера си. Няколко часа след пускането на проекта вече заявява, че ненавижда евреите, а Хитлер е бил прав. Чатботът е спрян по-малко от денонощие след старта на проекта. Става ясно, че зложелателни потребители на мрежата са използвали слабости в начина, по който алгоритъмът се учи, за да го накарат да приказва като расист и човекомразец.

Ще кажете – тази история е вече доста стара. Да, но пък е показателна и ни кара да се замисляме. Ами ако по същия начин може да се манипулира например ИИ, който отговаря за управлението на автономните коли?

 

Депутати и престъпници

Всички сме слушали за съвършените системи за лицево разпознаване в Китай (макар че по въпроса наистина има повече от една гледна точка). Е, през 2018-а полицията арестува погрешка съпругата на един от най-богатите хора в страната, защото ИИ грешно я припознал за шофьорка, виновна за много сериозна катастрофа. Нещо повече, лицето ѝ се появява на гигантските екрани, на които публично се показват най-сериозните нарушители на правилата като форма на публично порицание.

Подобен проблем имат и от „Амазон“. Журналистически експеримент показва, че системата им за лицево разпознаване бърка 28 от членовете на американския конгрес с криминални престъпници. Нещо повече – алгоритъмът асоциира 40% от хората на снимките с афроамериканци, макар в действителност такива да са под 20% от конгресмените.

Завършваме списъка с малко прогностика. Преди последното световно първенство по футбол какви ли не ентусиасти се опитват да прогнозират победителя с помощта на всякакви модели и алгоритми. Накрая резултатите им са обобщени. Бразилия, сочена като победител в най-много от моделите, стигна до четвъртфиналите. А другите два най-вероятно победители – Испания и Германия, отпаднаха дори по-рано.

За да не прекаляваме с песимизма, ето и един пример, когато ИИ си върши работата чудесно, но… това води до сериозни проблеми. Главният финансист на базирана в Англия енергийна компания превежда 220 000 евро на унгарски доставчик. Просто си изпълнява задълженията, защото му се е обадил и му е казал за го направи самият германец, главен шеф на фирмата. После обаче се оказва, че това е бил звуков вариант на технологията дийп фейк, при който изкуственият интелект точно е наподобил гласа на шефа. „Звучеше с абсолютно същия немски акцент и същата мелодика в гласа“, разказва жертвата пред „Уолстрийт Джърнъл“.

 

робот

Снимка: Arseny Togulev, Unsplash

 

Алгоритме, алгоритме…

Както предупреждава в друга своя статия проф. Смит, с когото започнахме, изкуственият интелект се е превърнал в мантра, в маркетингово клише, в хайп, както биха казали по-младите.

Той ни разказва и историята на Джъстин Уонг, който завършва с добри оценки бакалавър и магистратура по информационни технологии и през 2017-а създава базираната в Сингапур компания на име „Скрай“. Целта ѝ е да се превърне в „платформа за социални предсказания“. Потребителите се регистрират безплатно и могат да въвеждат своите собствени прогнози за вероятността за дадено събитие. Кой ще е следващият президент на САЩ? Ще успее ли Мъск да „откара“ хора на Марс в близкото десетилетие. Използва се принцип, познат като „мъдростта на тълпата“, за който вече сме разказвали в комплект с блокчейн технологията.

Скоро той прави и следващата стъпка – „Скай Вентидж“, система, която прави същите тези прогнози. Само че с помощта на алгоритъм, който, разбира се, също е заключен в черна кутия. И всяка прогноза, направена с него, вече струва по 400 долара.

„Наричаме го ИИ, само това ви трябва да знаете“, е принципът, на който работят доста такива проекти. Но дали зад тях наистина се крие сериозен, научно обоснован и проверен алгоритъм? Или просто си играем на онче-бонче и търсим отговора в гугъл?

 

Алго-ритни ме!

Всъщност, проф. Смит слага в списъка с подобни проекти и GPT-3, което със сигурност е доста по-спорно. Тази технология наистина изглежда доста обещаваща, в крайна сметка всички можем да я проверим днес по доста различни начини.

Още една причина да сме по-мнителни, чуем ли „мантрата“ ИИ, ни дава това проучване от 2019-а. Според данните на една от водещите компании в тази сфера – „Пактера технолоджис“, цели 85% от проектите за разработване на изкуствен интелект в различни области се провалят. Те така и не успяват да доставят това, за което са създадени. Процентът наистина е много сериозен, като изследователите дават доста възможни обяснения. От една страна – трудното адаптиране към толкова сериозни промени, от друга – прекалено амбициозните задачи, които се поставят, при положение, че очевидно тази технология има още много да се развива, преди да предложи дори част от впечатляващите неща, които очакваме от нея.

Изкуственият интелект определено е тема, по която си струва да сме предпазливи. Много тънка е границата между сериозните проекти, които определено могат да подобряват живота на всички ни, и пълните фалшификати, които пък създават предубеждения към цялото направление.

Когато представям различни Дигитални истории, свързани с изкуствения интелект, може би понякога се улисвам в предвиждането на едно прекалено оптимистично бъдеще. Темата го предполага. А и понякога този тип технологии изненадват изумително с напредъка си. Достатъчно е да спомена лицевото разпознаване, машинния превод, автономните коли.

 

Изкуствен интелект

Снимка: Dominik Scythe, Unsplash

 

И, И… какво?

Затова по такива теми се старая да представям балансирани истории, в които не прекалявам с оптимизма или скептицизма.

„Никога не инвестирайте в бизнес, който не разбирате“, казва Уорън Бъфет. И е факт, че опасността да ни изиграят понякога е много по-голяма, стане ли дума за модерните технологии. Достатъчно е да споменем митичната измама с блокчейн за милиарди OneCoin, тръгнала от България.

При изкуствения интелект за съжаление това също важи с пълна сила. На едро или пък съвсем на дребно, лепвайки толкова модерния етикет на всяка дреболия. Много е важно какво точно се крие зад определението „ИИ“ във всеки конкретен случай. Разбира се, важно е да вярваме в сериозното развитие на технологиите и да сме подготвени за бъдещето, което идва. Но все пак, добре е и винаги да имаме едно наум…

Дигитални истории
<a href="https://karamanev.me/author/georgik" target="_self">Георги Караманев</a>

Георги Караманев

Програмист, журналист на свободна практика и писател. Още за мен – четете тук.
Дигитални истории

Най-нови публикации:

Цветомил и алгоритъмът. Стиховете оживяват

Цветомил и алгоритъмът. Стиховете оживяват

Могат ли стиховете да бъдат нарисувани? Конкуренти ли са в тази задача човеците и алгоритмите, или е време да обединят сили, за да създават следващите форми на изкуство? Отворете сетивата си за едно...

повече информация
Да изчезнеш за 60 секунди. Човекът и профилът

Да изчезнеш за 60 секунди. Човекът и профилът

Колко e важен за вас профилът ви в любимата социална мрежа? А какво ще стане, ако всичко, което той пази, изчезне за секунда, без да има шанс да бъде възстановено? Днес все по-често държим файловете...

повече информация
„Вселена-25“. За хората и мишките

„Вселена-25“. За хората и мишките

Четири двойки мишки са пуснати да си живеят на воля. С изобилие от храна и вода, далеч от опасностите и болестите. Готови да завладяват една огромна територия… Мишият рай! Започват да се плодят като...

повече информация
32 „Дигитални истории“ в книга. Какво се задава?

32 „Дигитални истории“ в книга. Какво се задава?

В книгата „Дигитални истории“ се срещат 8 големи въпроса на днешния ден и 32 истории, които търсят отговорите им. Може би вече сте открехнали завесата на корицата? Тогава ще се радвам изключително...

повече информация

Още публикации по темата:

От рубриката:

Закъде си се забързал?

Закъде си се забързал?

„Забързаното ежедневие“ е клише, което повтаряме всеки ден.
Може би, защото е безусловно вярно. Все не стига времето, взеха да ги правят много кратки денонощията. Минутите се изнизват, не оставят време за спокойни мигове със семейството, с приятели, за книга, просто за замисляне или пълен релакс…
Как да е иначе? Днес в рамките на един ден можем да получим повече информация, отколкото само няколко поколения по-рано са възприемали за месеци, дори за цял живот.
На какво се дължи това постоянно усещане? Поколенията ли са различни, работата ли е повече? Или просто има нещо, което ни кара да се чувстваме под напрежение? Което все ни плаши, че изпускаме момента, дори когато няма никакво основание…

повече информация
Ковид 4 г. по-късно. Защо не си взехме поука?

Ковид 4 г. по-късно. Защо не си взехме поука?

Спомняте ли си, не толкова отдавна бяхме затворени по домовете си, парковете бяха преградени от ленти, пътищата извън града – от пропускателни пунктове… После се появиха ваксините, щяха да ни спасят или да ни убият. Рекорден брой българи умираха, разделихме се на ваксъри и антиваксъри, а оттам тръгнаха и толкова други разделения…
Невероятно е устроен човешкият мозък, бързо забравя и се адаптира към новото, към лесното. Така обаче много от важните въпроси изчезват, изтикани от поредната „актуална“ тема, по която да се дърляме. Докато, междувременно, от много държави идват сигнали, че ковид се завръща…
Видяхме колко бързо ежедневието ни може да се преобърне наопаки. Колко сме крехки, като индивиди и като вид. И е време да потърсим поуките.
Възможно ли е скоро да има нова вълна на коронавируса или пък да се появи следващият микроорганизъм, способен да промени живота на цялата планета?
Научихме ли си уроците?
Колко адекватно се справихме с пандемията?
Можеше ли повече човешки животи да бъдат спасени?
Колко смъртоносен се оказа коронавирусът?
Прекалихме ли с мерките или напротив – трябваше те да бъдат по-строги?
Решение ли се оказаха ваксините?
По-подготвени ли сме за следващи епидемии?

Въпроси, чиито отговори са важни за всеки от нас.

повече информация
Голата истина. Алгоритмите, които събличат

Голата истина. Алгоритмите, които събличат

Скролвате си фийда и вътре има гола снимка… на която сте вие, както майка ви е родила. Никога не сте се снимали така и все пак всичко е толкова реално?!
Това вече е напълно възможно да се случи и ето защо е важно да сме готови. И да си задаваме следващите въпроси: как си струва да променим отношението си към това, което виждаме? Така че да отговаря адекватно на действителността, до която ни доведоха технологиите.

повече информация

Най-новите:

Програмистът, който изтри 11 реда и „счупи“ интернет

Програмистът, който изтри 11 реда и „счупи“ интернет

23 март 2016 г. можеше да бъде апокалиптичен ден в историята на дигиталния свят, който надали ще се повтори. Netflix, Facebook и Spotify са само част от безбройните сайтове, които изведнъж се оказва, че… няма как да бъдат поддържани и обновени.
Защо ли? 28-годишният програмист Азер Кочулу просто е изтрил 11 фатални реда компютърен код.
Но как е възможно един непознат програмист да блокира сайтовете на световните гиганти? Защо в странния днешен онлайн свят неочаквано се оказва, че огромни, мултимилиардни проекти се крепят на раменете на доброволния труд на ентусиасти? Какво ли е накарало Азер да се ядоса толкова, че да отприщи в най-страховития му вид ефекта на пеперудата?
Понякога най-малките и уж безобидни редове код обръщат програмата…

повече информация
Цветомил и алгоритъмът. Стиховете оживяват

Цветомил и алгоритъмът. Стиховете оживяват

Могат ли стиховете да бъдат нарисувани? Конкуренти ли са в тази задача човеците и алгоритмите, или е време да обединят сили, за да създават следващите форми на изкуство?
Отворете сетивата си за едно емоционално преживяване, в което човекът и компютърът рамо до рамо предизвикат и сетивата, и усещанията ви…

повече информация
Да изчезнеш за 60 секунди. Човекът и профилът

Да изчезнеш за 60 секунди. Човекът и профилът

Колко e важен за вас профилът ви в любимата социална мрежа?
А какво ще стане, ако всичко, което той пази, изчезне за секунда, без да има шанс да бъде възстановено?
Днес все по-често държим файловете си в хранилища, разчитаме на платформите да пазят архивите ни, да ни информират какво се случва. Без да имаме време да се замислим какво всъщност им доверяваме по този начин.
Поне докато не усетим по болезнения начин колко са уязвими връзките, които са ни изградили технологиите.
Ето една особено важна история от първо лице за това колко е лесно онлайн да изгубиш… себе си.

повече информация
Човекът домейн и проблемът с файловете

Човекът домейн и проблемът с файловете

Ким Дотком, не е уебсайт, нито е следващият наследник на севернокорейската династия или на семейство Кардашиян. Но да, това е името и на уебсайта му. А животът му е влакче на ужасите – първо е хакер, после – мегауспешен предприемач. Следва период като мултимилиардер и още един… като престъпник, който прави всичко по силите си, за да избяга от американското правосъдие. И между всичко това идва позицията му на защитник на свободата онлайн.
Време е за една от най-пъстрите и непознати днешни дигитални истории, толкова неочаквана и поучителна, толкова шарена и динамична, колкото е нейният главен герой.
И за една важна поука… за това къде и как съхраняваме данните си.

повече информация
„Вселена-25“. За хората и мишките

„Вселена-25“. За хората и мишките

Четири двойки мишки са пуснати да си живеят на воля. С изобилие от храна и вода, далеч от опасностите и болестите. Готови да завладяват една огромна територия… Мишият рай!
Започват да се плодят като зайци. Броят им расте главоломно, удвоява се на всеки 55 дни. По всичко личи, че си живеят живота и се наслаждават на всеки миг. Година по-късно в „рая“ живеят 620 мишки!
Докато внезапно се случва нещо необяснимо – много от гризачите стават агресивни, започват да се нараняват без причина. После мъжките стават лениви и незаинтересовани, броят на обитателите на мишето царство неусетно започва да намалява… докато се стига до пълен крах.
Дали това не е знак накъде води естественият ход на живота ни тук, на Земята?
Експериментът „Вселена-25“ на изследователя Джон Калхун, направен преди половин век, се е превърнал в огромен повод за замисляне от 70-те, та до времената на фейсбук.

повече информация
32 „Дигитални истории“ в книга. Какво се задава?

32 „Дигитални истории“ в книга. Какво се задава?

В книгата „Дигитални истории“ се срещат 8 големи въпроса на днешния ден и 32 истории, които търсят отговорите. Някои от тях може би сте чели на тази страница, ще ги срещнете обновени и обогатени, други са написани специално за изданието.
Може би вече сте открехнали завесата на корицата? Тогава ще се радвам изключително много да прочета мнението ви тук.
Ако не – ето какво можете да очаквате зад нея!

повече информация
Share This