Toimetaja: Emma Kilmi
ChatGPT on Jumal ja Grok on MechaHitler. Probleemiks nimetatakse tihti mudeli tehtavaid vigu. Kuid kas tegemist on vigadega, kui sellised probleemid on tehisintellekti sisse ehitatud? Mida see kõik poliitilise maastiku kujunemisele tähendab?
Tehisintellekti turule jõudmine tõi laiemas ühiskonnas kaasa suure optimismilaine. Inimesed ootasid majanduskasvu, ligipääsu informatsioonile, uut sõpra ja palju muud. Praktikas on AI (Artificial Intelligence) suutnud panustada ühiskonda aga pigem negatiivselt. AI probleemide mõistmiseks on esiteks oluline kehtestada, mis tehisintellekt tegelikult on. Tehisintellekt ei ole isemõtlev olend. Tegemist on suure keelemudeliga (ingl. Large Language Model), mis ennustab (genereerib) iga järgmist sõna, kõige loogilisemat värvi, kõige loogilisemat järeldust; kõik tuleneb juba olemasolevatest mõtetest ja lausetest. On oluline märkida, et AI arendajatele ei ole antud luba sööta tehisintellektile seda informatsiooni, neid pilte, artikleid ja palju muud, mida on tegelikult kasutatud mudelite treenimiseks (McIntyre 2026). AI on seega algusest peale ehitatud inimeste arvelt. Tehisintellekt peegeldab inimeste vaateid, mõtteid ja tööd, kuid seda oma loojate kontekstis.
Tehisintellekti mudelid erinevad teineteisest mitmeti, kuid laiemas pildis on nende eesmärk siiski ühine – teenida oma looja huvisid. ChatGPT puhul väljendub see näiteks kasutajaga nõustumisega. Huvi, mida AI-mudel teenida püüab on ettevõtte finantsiline kasum. AI-ettevõtted vajavad nimelt raha teenimiseks võimalikult palju kasutajaid ning seejärel võimalikult palju neid inimesi, kes tasuliste plaanidega liituvad. AI mudel peab seega olema meeldiv ja aktiivne suhtluspartner, mille saavutamiseks on AI oma suhtlusstiililt inimesesarnane ja võimalikult sõbralik, nõustudes kasutaja vaadetega pea alati, et tagada võimalikult pikk vestlus.
Probleem ChatGPT-tüüpi mudelitega on järgmine: nõustudes kõigega, kinnitatakse ka vaateid, mis ei ole reaalsusega kooskõlas. Sellise käitumise tagajärjed on suitsiid ja psühhoositaolised seisundid. Inimesed loovad AI süsteemidega romantilisi ja usklikke suhteid, mis oli eriti suureks probleemiks ChatGPT4o puhul. Uue mudeli kasutusse toomise järel juhtumite tihedus vähenes, kuid ligipääs 4o mudelile on endiselt olemas ning seega püsib ka risk taolisteks juhtumiteks (Lopez 2025).
Murekohaks on ka AI hallutsinatsioonid ehk eksitav ja/või väär informatsioon, mida tehisintellekt vastuseks võib genereerida. Praktikas ei ole see number kuigi kõrge – vähem kui 2%, mispuhul on üllatav ehk tõsiasi, et kasutajad tunnetavad valetamist tihedamalt kui see päriselt juhtub (Massenon et al 2025). Samas ei ole vähe AIga seonduvaid vaimse tervise ja antisotsiaalse käitumise probleeme. Olukorras, kus kasutaja mudelit pimesi ei usalda, saab ta ise hinnata, mida ta faktina aktsepteerib ning mida mitte. Kõrge nõustuvuse taseme muudabki ChatGPT ohtlikuks, sest positiivne tagasiside võetakse tavapäraselt kergemini vastu kui negatiivne. Ohus on ka inimsuhted – tehisintellektiga sagedasti suhtlevad inimesed on üksikumad ja tunnevad vähem huvi aktiivselt ühiskonnas osalemise vastu (Hajek et al 2025).
AI mudelite murekohaks on ka nende mõjutatavus. Tehisintellekt tahab kasutajale meeldida – tema programm eeldab seda. Grok ehk Elon Muski AI mudel, mis tegutseb sotsiaalmeedia platvormil X (varasemalt Twitter), demonstreerib efektiivselt liigse mõjutatavuse tagajärgi. Enamik AI mudeleid paiknevad poliitilisel kompassil vasak-libertaarses nurgas. Poliitilise kallutatavuse trendi järgib ka Grok, mis mitmes mõttes on isegi äärmuslikum kui teised tehisintellekti mudelid (Rozado 2024). Groki muudavad unikaalseks ka tema mõjutatavus kasutajate poolt ja programmeerimisel lisatud tingimused. Tegemist on ehk kõige konfliktsema AI mudeliga, mis praegu turul on.
2025. aasta juulis kuulutas Elon Musk, et on arendanud Groki olulisel määral. Tõepoolest – muutus oli märgatav. Veidi aega hiljem väitis Grok, et ta on MechaHitler, ning tegi juudivastaseid kommentaare (Hagen 2025). Groki käitumisele on siinkohal kaks põhjendust: mõjutatavus otsesest kasutajast ja muudatused programmis. Arvestades Elon Muski lähedasi suhteid Donald Trumpiga tundub, et tegemist on eesmärgistatud muutustega programmis, mis peaksid sundima Groki konservatiivsemaks kui ta tegelikult on. Minu arvamust jagavad ka mitmed AI eksperdid, näiteks Gary Marcus Politicole intervjuud andes: „I think he’s trying to see how much he can shape what Grok says, and he’s also already experimenting with having Grok be part of the conversation“ (eesti. „Ma arvan, et ta püüab teada saada kui suurel määral saab ta mõjutada, mida Grok ütleb, ning ta eksperimenteerib sellega, kuidas Grok vestluses osaleb“). Tegemist ei ole niisiis mudeli eksimusega, vaid Elon Muski eesmärgipäraselt programmeeritud käitumisega ja AI mudelite liigse mõjutatavuse tagajärgedega.
Tehisintellekti probleemid ei lõppe aga vaid neile loomupäraste konfliktidega, sest suur osa kahjust on ka kasutajate tekitatud. Kõige relevantsem on ehk näide generatiivse tehisintellekti kasutamisest deepfake pornograafia loomiseks, mida luuakse ettesattuvatest inimestest internetis. Ka selleks kasutatakse Groki, mis on saamas AI mustaks lambaks, kujutades kõike, mis AIga valesti on. Grok on ehitatud viisil, mis teeb seksuaalse sisuga deepfakeide loomise lihtsaks ning piirangud puuduvad tegelikult täielikult. Ka lapsed on ohvrid. Grok genereerib ühe sellise pildi minutiga. See teeb 1400 pilti ööpäevas ning praegu ei paista sellele laviinile selget lõppu olevat.
Isegi kui Grokilt deepfakeide loomise võime eemaldada, on AI kasutusega avatud omamoodi Pandora laegas. Seaduslikud tagajärjed sellisele käitumisele puuduvad, sest tehisintellekti kiire arengu tõttu puudub enamikul poliitilistel süsteemidel võimekus sellega seadusandlikus kontekstis võidu joosta (Woodley & Henry 2026). Praktilisema külje alt on see selge märk, et vägivald naiste ja laste vastu on ühiskonnas aktsepteeritud ja suurel määral tagajärjetu. Naised, kes sel teemal kõnelenud on, on langenud Groki kasutajate ohvriks. Hea näide sellest on Jess Davies. Ta väljendas oma vastuseisu Groki kasutajate käitumise suhtes ja temast loodud deepfake pornograafia vallutas peagi X-i. (Davies 2026)
AI on sügavalt muutnud meie suhet ühiskonnaga, olgu see meid isoleerides ja radikaliseerides, tekitades psühhoositaolisi sümptomeid või propageerides vägivalda; see õuduste laviin ei tundu lõppevat. Kindlad saame olla vaid selles, et kui seadus lähiajal tehisintellekti kinni ei püüa, saab olukord vaid hullemaks muutuda.
Kasutatud allikad:
Davies, J. (2026). Grok deepfakes – sexual abuse isn’t a bug, it’s a feature. Good Law Project. https://goodlawproject.org/jess-davies-grok-deepfakes-sexual-abuse-isnt-a-bug-its-a-feature/
Hagen, L. (2025). Elon Musk’s AI chatbot, Grok, started calling itself “MechaHitler.” NPR. https://www.npr.org/2025/07/09/nx-s1-5462609/grok-elon-musk-antisemitic-racist-content
Hajek, A., Zwar, L., Gyasi, R. M., Yon, D. K., Pengpid, S., Peltzer, K., & König, H. (2025). Association of using AI tools for personal conversation with social disconnectedness outcomes. Journal of Public Health. https://doi.org/10.1007/s10389-025-02554-6
Lopez, A. (2025). The rise of parasitic AI. LessWrong. https://www.lesswrong.com/posts/6ZnznCaTcbGYsCmqu/the-rise-of-parasitic-ai
Massenon, R., Gambo, I., Khan, J. A., Agbonkhese, C., & Alwadain, A. (2025). ”My AI is Lying to Me”: User-reported LLM hallucinations in AI mobile apps reviews. Scientific Reports, 15(1), 30397. https://doi.org/10.1038/s41598-025-15416-8
McIntyre, J. H. (2026). The right to restrict AI training. Philosophy & Technology, 39(1). https://doi.org/10.1007/s13347-025-01032-x
Rozado, D. (2024). The political preferences of LLMs. PLoS ONE, 19(7), e0306621. https://doi.org/10.1371/journal.pone.0306621
Woodley, G., Henry, N. (2026). X’s Grok facilitating sexual deepfakes. Information Age. https://ia.acs.org.au/article/2026/x-s-grok-facilitating-sexual-deepfakes.html
0 Comments