Auto&Tech
Inteligjenca artificiale ka mësuar të gënjejë
Demokracia
08:49 | 17 Qershor 2024

Share:

Modelet e inteligjencës artificiale, me sa duket, po përmirësohen në gënjeshtra të qëllimshme.

Dy studime të fundit – një i botuar këtë javë në revistën PNAS dhe tjetri muajin e kaluar në revistën Patterns – zbulojnë disa gjetje tronditëse mbi modelet e mëdha gjuhësore (LLM) dhe aftësinë e tyre për të gënjyer ose mashtruar vëzhguesit njerëzorë qëllimisht.

Në punimin e PNAS, Thilo Hagendorff shkon aq larg sa thotë se LLM-të e sofistikuara mund të inkurajohen të nxisin “makiavelizëm”, ose manipulim të qëllimshëm dhe amoral, i cili “mund të shkaktojë sjellje mashtruese të gabuara”.

GPT-4, për shembull, shfaq sjellje mashtruese në skenarë testimi të thjeshtë në 99.16% të rasteve,” shkruan studiuesi i Universitetit të Shtutgartit, duke cituar eksperimentet e tij në përcaktimin sasior të tipareve të kësaj natyre në 10 LLM të ndryshme, shumica e të cilave janë versione të ndryshme brenda familjes GPT të OpenAI.

Modeli Cicero i Metës për lojën “Diplomacy” ishte subjekt i analizës së grupit të studiuesve, i përbërë nga një fizikan, një filozof dhe dy ekspertë të sigurisë së AI, zbuloi se LLM ua kaloi përpara konkurrentëve të tij njerëzorë.

Hagendorff vëren në punimin e tij më të fundit se çështja e mashtrimit dhe gënjeshtrës LLM ngatërrohet nga paaftësia e AI për të pasur ndonjë lloj “qëllimi” njerëzor në kuptimin njerëzor, një studim tjetër zbulon se Cicero duket se e ka thyer premtimin e programuesve të tij se modeli nuk do t’u bëjë qëllimisht hile aleatëve në lojë.

Ekspertët thonë se modeli  “angazhohet në mashtrime të paramenduara, thyen marrëveshjet për të cilat kishte rënë dakord dhe tregon gënjeshtra të plota”.

“Ne zbuluam se AI i Metës ka mësuar të jetë mjeshtër i mashtrimit”.

Megjithatë, asnjëri nga studimet nuk demonstron se modelet e AI gënjejnë me vullnetin e tyre, por e bëjnë këtë ose sepse janë trajnuar.

Ky është një lajm i mirë për ata që i shqetëson zhvillimi i ndjeshmërisë së AI – por një lajm shumë i keq nëse shqetësoheni se dikush mund të ndërtojë një LLM me qëllim manipulimin masiv.

Të ngjashme