Вештачката интелигенција самоуверено измисли одговори што изгледаа реално.
Минатиот месец, повеќе од 50 судски случаи во САД наведуваа лажни правни извори генерирани од вештачка интелигенција.
Адвокатите ги губеа случаите, беа суспендирани и мораа да се пријавуваат на судовите, сè затоа што нивната вештачка интелигенција со сигурност измислуваше одговори што изгледаа реално. Правната технологија е само врвот на ледениот брег.
Wild chart: apparently some AI models hallucinate so much they should come with a parental advisory label. Meanwhile Claude 4.1 is out here acting like the responsible adult in the room, and GPT-OSS-20B is seeing colors the rest of us can’t pic.twitter.com/No10Ukqofd— Evan Kirstel #B2B #TechFluencer (@EvanKirstel) November 24, 2025
Низ сите индустрии, речиси половина од раководителите признаваат дека донесуваат големи одлуки врз основа на фиктивна содржина, а 70% од проектите со вештачка интелигенција не успеваат, не затоа што вештачката интелигенција е лоша, туку затоа што компаниите избираат погрешни модели за нивниот случај на употреба. Вкупните загуби достигнаа повеќе од 67 милијарди долари само во 2024 година.
Моделите со висока верност како GPT-5 и Gemini се импресивни, но халуцинираат за нивната сигурност, што е ужасно за производство, усогласеност или апликации кои се критични за безбедноста. Доверливите модели како Claude жртвуваат некои можности за видот на доверба што всушност им е потребна на бизнисите.
The post Овие модели на вештачка интелигенција најмноги халуцинираат appeared first on Во Центар.



