Hume AI emociju lasītājs vai manipulācijas rīks.
- Liga Tarasova
- 2024. g. 27. jūn.
- Lasīts 2 min

Mākslīgais intelekts, kas spēj nolasīt mūsu jūtas, varētu uzlabot lietotāju pieredzi, taču pastāv bažas par ļaunprātīgu izmantošanu un neobjektivitāti.
Hume izstrādājis jaunu mākslīgā intelekta rīku, kurš spēj analizēt emocijas pēc balss.
Hume izpilddirektors Alans Kovens apgalvo, ka viņu mākslīgais intelekts spēj saprast ne tikai vārdus, bet arī balss toni.
Emocionālais mākslīgais intelekts kļūst par lielu biznesu, un tā tirgus vērtība tiek prognozēta vairāk nekā 50 miljardu ASV dolāru apmērā.
Tomēr eksperti, piemēram, profesors Endrjū Makstaijs, apšauba šīs prognozes, norādot uz emociju sarežģīto dabu.
Hume AI spēj analizēt emocionālus izteikumus un reaģēt uz tiem empātiski, taču pastāv jautājums, cik labi šī tehnoloģija spēj nolasīt niansētas cilvēka emocijas.
Hume mērķis ir saprast atklātas emociju izpausmes, taču rodas jautājums par ne tik tiešas uzvedības interpretāciju.
Citi pētnieki, piemēram, Mets Kolers no Groningenas Universitātes, strādā pie mākslīgā intelekta, kas atpazīst sarkasmu, cerot uzlabot cilvēku un mašīnu mijiedarbību, tomēr joprojām pastāv problēmas ar emociju definēšanu un atpazīšanu.
Lisa Feldmane Bareta un citi pētnieki secinājuši, ka mēs nevaram precīzi secināt emocijas tikai pēc sejas kustībām.
Mākslīgais intelekts, kurš mēģina noteikt cilvēku emocionālos stāvokļus, var kļūdīties un izraisīt nevēlamas sekas, piemēram, darbā pieņemšanā vai medicīniskajā diagnostikā.
Papildus tam ir arī bēdīgi slavenā mākslīgā intelekta neobjektivitāte, kurā daži modeļi nepamatoti piešķir negatīvas emocijas konkrētām cilvēku grupām.
Šāda neobjektivitāte var radīt nopietnas sekas, ja tehnoloģija tiek izmantota nepareizi.
Lai gan Eiropas Savienības mākslīgā intelekta akts cenšas ierobežot mākslīgā intelekta izmantošanu manipulācijām, izaicinājums ir izstrādāt efektīvas aizsardzības stratēģijas, kas varētu sekot līdzi straujajai attīstībai.
Emocionālais mākslīgais intelekts varētu būt noderīgs, piemēram, psihoterapijā, lai uzraudzītu pacienta emocionālo stāvokli un ārstēšanas progresu, tomēr ļaunprātīgas izmantošanas iespējas joprojām pastāv.
Tāpat kā ar jebkuru jaunu tehnoloģiju, arī emocionālā mākslīgā intelekta ietekme būs atkarīga no tiem, kas to kontrolē.
Lai sabiedrība pieņemtu šīs sistēmas, ir jāizprot un jāņem vērā lietotāju intereses un bažas, bet tikmēr emocionālais mākslīgais intelekts turpinās izraisīt neviennozīmīgas sajūtas.
Comentarios