Mākslīgā intelekta riski ieroču izveidē
- Liga Tarasova
- 2024. g. 8. aug.
- Lasīts 1 min

Mākslīgais intelekts (MI) ieroču izstrādē rada nopietnas bažas par cilvēku drošību un ētiku.
Pētnieki no Hārvardas Medicīnas skolas asociētās profesores Kanakas Radžanas vadībā brīdina, ka MI darbināti autonomi ieroči var radīt nestabilitāti un negatīvi ietekmēt ne tikai karu, bet arī zinātni kopumā.
Šie ieroči, kas ietver dronus un robotus, tiek aktīvi izstrādāti un jau tiek izmantoti. Eksperti uzskata, ka to izplatība tikai pieaugs. Tas var novest pie ģeopolitiskas nestabilitātes un radīt draudus mākslīgā intelekta pētniecībai akadēmiskajā un rūpniecības vidē.
Radžanas komanda uzsver trīs galvenos riskus:
MI ieroči varētu veicināt valstu iesaisti konfliktos, jo tie samazina saikni starp karu un cilvēku dzīvību zaudēšanu.
Šāda tehnoloģija varētu ierobežot nemilitārās MI pētniecības brīvību, līdzīgi kā aukstā kara laikā tas notika ar kodolfiziku.
Militārie spēki varētu izmantot mākslīgo intelektu, lai samazinātu atbildību lēmumu pieņemšanā, kas radītu nopietnas ētiskas problēmas.
Lai gan pilnīgs militārā MI aizliegums būtu ideāls, tas nav reāli īstenojams. Tādēļ pētnieki aicina izstrādāt mākslīgā intelekta ieročus, kas papildina, nevis aizstāj cilvēku lomu, nodrošinot cilvēku pārraudzību un novēršot lielākos riskus.
Ir svarīgi noteikt robežas un regulēt bīstamākās MI ieroču kategorijas, lai aizsargātu gan sabiedrību, gan zinātnisko progresu.
Comments