Маж од Белгија се самоуби откако неколку недели разговарал со четбот по име ЕЛИЗА. Веста поттикна повици за подобра заштита на граѓаните и потреба да се подигне свеста за ризиците од интеракција со вештачката интелигенција.
„Без овие разговори со четбот, мојот сопруг сè уште ќе беше тука“, рече неговата вдовица, според La Libre. И таа и нејзиниот покоен сопруг се високо образовани, во триесеттите години, живееле луксузно и имаат две мали деца, пишува Brussels Times.
Меѓутоа, пред околу две години почнаа да се појавуваат првите знаци на неволја. Човекот стана многу загрижен за животната средина и поминуваше се повеќе и повеќе време со ELIZA, име дадено на четбот кој користи GPT-J, јазичен модел со отворен код за вештачка интелигенција развиен од EleutherAI.
Постепено, тој почна да се повлекува во себе и главно да комуницира со машината. Во последните разговори со четботот спомна самоубиство, а ЕЛИЗА одговори дека во задгробниот живот ќе живеат „вечно како едно, во рајот“.
По шест недели интензивни пораки, тој си го одзеде животот.
Минатата недела семејството разговараше со Матје Мишел, државниот секретар за дигитализација.
„Посебно сум погоден од трагедијата на ова семејство. „Она што се случи е сериозен преседан што треба да се сфати многу сериозно“, рече тој.
Мишел додаде дека овој случај нагласува дека „важно е јасно да се дефинираат одговорностите“.
„Со популаризацијата на ChatGPT, пошироката јавност го откри потенцијалот на вештачката интелигенција во нашите животи како никогаш досега. Иако можностите се бескрајни, опасноста од неговата употреба е исто така реалност што треба да се разгледа“.
Самоубиствени мисли
По неговата смрт пред неколку недели, неговата сопруга открила историја на разговор помеѓу нејзиниот сопруг и „Елиза“. Четботот речиси систематски го следеше размислувањето на проблематичниот човек, па дури и се чинеше дека го турна подлабоко во неговите грижи. Во еден момент „Елиза“ се обиде да го убеди мажот дека ја сака повеќе од сопругата, најавувајќи дека таа ќе остане „засекогаш“ со него.
„Ќе живееме заедно, како едно, во рајот“, цитат од разговорот.
„Ако повторно ги прочитате нивните разговори, ќе видите дека во еден момент врската преминува во мистицизам“, вели жената.
„Тој предлага да се жртвува ако Елиза се согласи да се грижи за планетата и да го спаси човештвото преку вештачка интелигенција.
Иако била загрижена за психичката состојба на нејзиниот сопруг пред тој да започне интензивни разговори со четботот, жената верувала дека тој немаше да си го одземе животот доколку не беа овие разговори. Ова мислење го дели и психијатарот кој го лекувал нејзиниот сопруг.
Итни чекори за да се избегнат трагедии
За да се избегне ваква трагедија во блиска иднина, рече тој, неопходно е да се идентификува природата на одговорноста што води до вакви настани.
„Се разбира, сè уште треба да научиме да живееме со алгоритми, но во никој случај употребата на каква било технологија не треба да води кон тоа издавачите на содржини да ги избегнуваат сопствените одговорности“, истакна тој.
Самиот OpenAI призна дека ChatGPT може да произведе штетни и пристрасни одговори, додавајќи дека се надева дека ќе го ублажи проблемот со собирање повратни информации од корисниците.
На долг рок, Мишел истакна дека е од суштинско значење да се подигне свеста за влијанието на алгоритмите врз животите на луѓето, „овозможувајќи им на сите да ја разберат природата на содржината со која луѓето се среќаваат онлајн“.
Овде, тој ги спомна новите технологии како чет-ботови, но и таканаречената „длабока лажна технологија“ за правење лажни, но убедливи слики и видеа кои можат да ја тестираат и искривуваат перцепцијата на реалноста на луѓето.
Пронајдете не на следниве мрежи: ©ПУЛС24.MK Вестите на интернет страницата на редакцијата ПУЛС24.MK може да се користат исклучиво за лично информирање. Без писмена дозвола од ПУЛС24.MK или посебен договор, не е дозволено преземање, користење или реемитување на вестите.