top of page

Kāpēc mākslīgais intelekts mēdz runāt muļķības

  • Writer: Liga Tarasova
    Liga Tarasova
  • 12. maijs
  • Lasīts 2 min
Vīrietis raksta uz stikla tāfeles ar krāsainu marķieri. Apkārt ir raksti un grafiki. Viņš ir koncentrējies, biroja vide.

Mākslīgais intelekts kļūst gudrāks ar katru dienu — tam uztic dokumentu apkopošanu, tehnisko atbalstu un pat kodu rakstīšanu.


Taču, ironiskā kārtā, jo gudrāks tas kļūst, jo biežāk tas kļūdās.


Un šīs kļūdas nav tikai nejaušības – tās bieži ir pavisam izdomātas "halucinācijas".


Nesen mākslīgā intelekta bots, kas apkalpo datorprogrammētāju rīku Cursor, paziņoja klientiem, ka lietot rīku vairākos datoros vairs nebūšot atļauts.


Daudzi sašutumā pārtrauca lietot pakalpojumu, taču drīz vien atklājās – tā bija robota izdomāta informācija, jo Cursor vadītājs vēlāk norādīja, ka šāda politika nekad nav pastāvējusi.


Šādas "halucinācijas" rodas tāpēc, ka mākslīgā intelekta modeļi, piemēram, ChatGPT, Google Gemini vai DeepSeek, nedarbojas kā enciklopēdijas – tie aprēķina varbūtības un “min”, kas būtu loģiska atbilde.


Tie nav ieprogrammēti ar faktiem, bet gan apmācīti uz milzīgiem teksta apjomiem, mācoties no tā, kā vārdi un teikumi visbiežāk parādās kopā.


Kad mākslīgā intelekta modelis atbild uz jautājumu, tas neatceras konkrētus faktus, bet gan paredz, kāda varētu būt visloģiskākā nākamā atbilde, balstoties uz statistiku.


Tas ir līdzīgi kā rakstot īsziņu un tālrunis piedāvā nākamo vārdu – tikai daudz sarežģītākā līmenī.


Šo pieeju sauc par valodas modelēšanu, balstītu uz varbūtību.


Problēma ir tāda, ka mākslīgais intelekts:

  • neizprot realitāti vai patiesību – tas nezin, kas ir “pareizi”, tikai to, kas “izklausās pareizi”

  • ja nav pietiekamas informācijas vai jautājums ir sarežģīts, modelis vienkārši "uzmin" atbildi

  • jo sarežģītāka un plašāka sistēma, jo vairāk vietu radošām, bet kļūdainām atbildēm.


Testos jaunākās OpenAI sistēmas – piemēram, o3 un o4-mini – halucinēja līdz pat 79% gadījumu.


Un ne tikai OpenAI — arī Google un DeepSeek modeļi piedzīvo līdzīgas problēmas.


Pat salīdzinoši vienkāršos uzdevumos, kā ziņu rakstu apkopošana, mākslīgā intelekta modeļi mēdz izdomāt informāciju.


Tehnoloģiju uzņēmumi gadiem cenšas mazināt halucināciju skaitu.


Piemēram, uzņēmums Vectara lēsa, ka sākotnēji mākslīgā intelekta roboti deva nepatiesu informāciju ap 27% gadījumu, taču vēlāk šis rādītājs tika samazināts līdz 1–2%.


Tomēr, līdz ar jaunu un sarežģītāku mākslīgā intelekta ieviešanu, kļūdu skaits atkal pieaug.


Šī problēma nav tikai kuriozs — tā kļūst arī bīstama, kad mākslīgo intelektu izmanto juridiskos, medicīniskos vai biznesa jautājumos.


Lai arī mākslīgā intelekta potenciāls ir milzīgs, mums vēl jāmācās, kā ar to sadarboties droši un gudri, jo pat visgudrākais robots var nodoties fantāzijai.

Kommentare


  • Facebook
  • Instagram
© 2025 maksligais.blog. Jebkādu materiālu pilnīga vai daļēja izmantošana atļauta tikai ar MI redakcijas atļauju.

Paldies!

maksligais intelekts jaunumi
bottom of page