Article

Generated by

--:--
--:--

Inteligjenca artificiale dhe kriza e besueshmërisë

Modeli gjenerues më i fundit i OpenAI, o3, së fundmi “njoftoi” vdekjen time dhe shkroi një nekrologji të stisur, duke përfshirë citime të rreme dhe ngjarje të paqena. Ky episod është ilustrim i një problemi të thellë: modelet gjeneruese si ChatGPT, o3 apo Grok janë shpesh mahnitëse, por rrallë të besueshme. Këto sisteme prodhojnë “haluçinacione” – informacione që tingëllojnë të mundshme, por janë të pavërteta. Për shembull, një biografi e krijuar nga AI për mikun tim Harry Shearer e përshkruante gabimisht si britanik. Edhe kërkesat për harta ose të dhëna të thjeshta prodhojnë shpesh rezultate të gabuara. Problemi nuk qëndron vetëm te të dhënat e dobëta apo mungesa e të kuptuarit të humorit. Në thelb, AI gjeneruese është ndryshe nga ajo tradicionale simbolike: nuk analizon të vërtetën, por parashikon fjalën ose pikselin e radhës që “tingëllon” e saktë. Kjo e bën atë thelbësisht të verbër ndaj realitetit dhe për rrjedhojë, të pabesueshme. Për të zgjidhur këtë, nevojitet një qasje e re, e ndërtuar mbi arsyetim dhe njohuri të qarta simbolike – jo vetëm algoritme përafruese. Megjithatë, zhvilluesit e rrjeteve nervore e kanë shmangur këtë model për vite. Për shkak të aftësisë së AI-së për të imituar gjuhën njerëzore, shumë njerëz u atribuojnë këtyre sistemeve inteligjencë dhe ndjenja që nuk i zotërojnë. Në realitet, këto modele nuk janë të vetëdijshme dhe nuk dinë të kontrollojnë vetveten. Deri sa të ndërtojmë AI me themele të reja, haluçinacionet do të mbeten problem, dhe premtimet për rritje produktiviteti do të mbeten të parealizuara.