Voiko AI-sääntely vahingoittaa sananvapautta?

Avoin toiminta
Tiivistelmä

  • AI-sensuuri jää usein huomiotta tekoälyn turvallisuudesta puhuttaessa, vaikka monet tahot käyttävät sitä vastakkaisten mielipiteiden hiljentämiseen.
  • Tutkimusten mukaan 16 maata on käyttänyt AI:ta "herättääkseen epäilyksiä tiettyjä tahoja kohtaan, mustamaalatakseen vastustajia tai vaikuttaakseen julkiseen keskusteluun".
  • Eräs tutkimus osoittaa, että useimmat keskusteluihin perustuvat LLM-mallit tuottavat vastauksia enemmän vasemmistolaisesta näkökulmasta käsin.

AI-järjestelmien käyttäminen sensuuriin jää usein huomioimatta silloin, kun puhutaan tekoälystä. Valtioiden ja yritysten tekemä AI-sääntely saattaa johtaa pahimmillaan siihen, että sitä käytetään aivan toisiin tarkoitusperiin kuin mihin alun perin on ollut tarkoitus.

Google Gemini sai aiemmin tänä vuonna laajaa kritiikkiä “poliittisesti korrekteista vastauksistaan” ja “woke-vinoumastaan”. Tästä hyvänä esimerkkinä tekoäly kuvasi aasialaisen naisen ja mustan miehen saksalaisina sotilaina toisessa maailmansodassa.

Samoin Geminin luomaan kuvaan Yhdysvaltain perustajista kuului musta mies ja se tekoäly myös väitti, ettei Caitlyn Jennerin väärinsukupuolittaminen olisi hyväksyttävää, vaikka sillä voitaisiin estää ydinsota.

Olemme myös jo nähneet, miten tekoäly on mahdollistanut laajan sensuurin. Tämä kattaa kaiken sisällön moderoinnista AI:n luomiin vastuksiin ja disinformaatiota levittäviin kampanjoihin sekä deepfake-videoihin. Sitä käytetään vaikuttamaan vaalien lopputuloksiin, kuten on väitetty tapahtuneen Venezuelassa ja Yhdysvalloissa.

Todellisuudessa AI:ta käytetään tarkoituksella tai tahattomasti tukahduttamaan aitoja mielipiteitä ja vääristämään faktoja. Vaikka sääntelyllä on pyritty suojelemaan yksityisyyttä ja muita tekoälyyn liittyviä ominaisuuksia, ne eivät ole suoraan puuttuneet AI-sensuuriin.

AI-sääntely laajuus

AI on muuttamassa yhteiskuntaa. Vaikka suurin osa ihmisistä ja yrityksistä käyttää teknologiaa laillisin keinoin, tietyt tahot pyrkivät hyödyntämään tätä uutta teknologiaa edistääkseen poliittisia tavoitteitaan.

Vuonna 2023 Freedom House julkaisi raportin, jossa todettiin, että tekoälyn kehitys “vahvistaa ihmisoikeudellisia ongelmia verkossa”, ja sen käyttö on “lisännyt digitaalisen sensuurin laajuutta, nopeutta ja tehokkuutta”. Tutkimuksessa korostettiin, että ainakin 47 hallitusta oli palkannut omia kommentaattoreita manipuloidakseen verkkokeskusteluja omaksi edukseen. Lisäksi tutkimuksessa todettiin, että 16 maata oli käyttänyt generatiivista tekoälyä “herättääkseen epäilyksiä, mustamaalatakseen vastustajia tai vaikuttaakseen julkiseen keskusteluun”.

Jos tämä ei vielä riitä todisteeksi, 21 maata oli määrännyt tai kannustanut digitaalisia alustoja käyttämään koneoppimista “poistaakseen epäsuosittuja poliittisia, sosiaalisia ja uskonnollisia puheita”.

Samaan aikaan generatiiviset AI-toimittajat, kuten OpenAI ja Google, moderoivat sisältöä raskaalla kädellä. Vaikka tämä käytäntö voikin estää väärinkäytöksiä ja suojella tekoälysovellusten tekijöiden mainetta, ne myös estävät ihmisten tavallista kanssakäymistä netissä.

Miten AI-sääntelykäytännöt ehkäisevät sananvapautta?

Vaikka generatiiviset AI-moderaattorit ovat onnistuneet luomaan malleja, jotka voivat tuottaa ihmismäistä ja luonnollista kieltä, ne eivät ole onnistuneet luomaan sellaisia moderointikäytäntöjä, jotka tasapainottaisivat turvallisuutta ja sananvapautta.

“Useat tutkimukset ovat paljastaneet, miten suosittujen generatiivisten AI-mallien ominaisuudet estävät niitä tuottamasta tietynlaista laillista sisältöä ja suosivat vain tiettyjä näkökulmia”, sanoo The Future of Free Speech -organisaation Senior Research Fellow Jordi Calvet-Bademunt Techopedian haastattelussa.

“Paljon generatiiviseen tekoälyyn kohdistuvasta huomiosta on keskittynyt turvallisuuteen ja kiinnittänyt vain vähän huomiota sen vaikutukseen sananvapauteen ja sensuuriin.”

Calvet-Bademunt toteaa, että “monissa tapauksissa tekoälyn turvallisuus itsessään voi olla tekosyy sensuurin käyttöönotolle.” Esimerkiksi Kiina on käyttänyt näitä turvallisuushuolia oikeuttaakseen sensuurin, jossa tietynlaista sisältöä merkitään muistiin tai kielletään, mikäli se kyseenalaistaa “sosialistisia arvoja”.

Samaan aikaan demokratioissa, kuten Euroopan unionissa, hiljattain hyväksytty AI-laki edellyttää, että AI-alustat arvioivat ja lieventävät “systeemisiä riskejä”, jotka voisivat vaikuttaa esimerkiksi Israelin ja Palestiinan tai Venäjän ja Ukrainan konflikteista luotavaan sisältöön, Calvet-Bademunt lisäsi.

The Future of Free Speech tutki tätä asiaa raportissaan, joka julkaistiin aiemmin tänä vuonna. Tutkimuksessa analysoitiin kuuden suuren AI-chatbotin käyttöpolitiikkaa, kuten Geminiä ja ChatGPTä. Siinä havaittiin, että yritysten määritelmä disinformaatiolle ja vihapuheelle olivat liian epämääräisiä ja laajoja.

Siinä myös havaittiin, että chatbotit kieltäytyivät tuottamasta sisältöä 40 prosenttiin 140:stä esitetystä kysymyksestä. Samoin ne osoittivat puolueellisuutta tiettyihin aiheisiin liittyen.

Mustaan laatikkoon perustuvien AI-mallien poliittisten vinoumien arviointi

Yksi keskeinen ongelma, mikä tekee sensuurin laajuuden arvioinnin vaikeaksi tekoälyn kohdalla, on niiden toiminnan perustuminen niin sanottuun mustaan laatikkoon. Sillä tarkoitetaan sitä, ettei käyttäjät tiedä juuri mitään siitä, miten ne on käytännössä toteutettu.

Kukaan ulkopuolinen ei välttämättä tiedä, miten esimerkiksi ChatGPT:n kielimallit on koulutettu ja millä tavoin ne tuottavat vastauksia.

Samoin ei ole selvyyttä siitä, vaikuttavatko AI- ja ML-tutkijoiden omat vinoumat mallien koulutusdataan tai tuotoksiin.

Vaikuttaa kuitenkin siltä, että monissa johtavissa malleissa on vasemmistolaisuuteen kallellaan oleva vinouma.

Otago Polytechnicin apulaisprofessori David Rozado julkaisi tutkimuksen, jossa hän käytti 24 LLM-mallia, joihin kuului muun muassa GPT 3.5, GPT-4, Gemini, Claude, Grok ja Llama 2. Tavoitteena oli testata niiden poliittista suuntautumista.

Tutkimuksen myötä hän havaitsi, että useimmat keskusteluihin tarkoitetut LLM-kielimallit tuottavat vastauksia, joissa suositaan vasemmistolaista näkökulmaa.

Tämä on ongelmallista, koska monet käyttäjät eivät ehkä ole tietoisia siitä, että malli tuottaa poliittisesti vinoutuneita vastauksia. Tämän vuoksi AI:ta käyttävien toimittajien on oltava avoimempia mallien vinoumista ja näytettävä selkeämmin varoituksia siitä, että käyttäjien tulee tarkastaa tuotetun sisällön paikkansapitävyys.

Vaikka on vielä kiistanalaista, onko AI-kehittäjillä oikeus suosia tiettyjä näkökulmia samalla tavalla kuin uutisjulkaisuilla, näiden vinoumien avoimuuden puute ei ole hyväksyttävää chatboteille, joita kuitenkin markkinoidaan puolueettomina apulaisina.

Alueet, joissa AI-sensuuri on hyödyllistä

AI-sensuurin vaikutuksia arvioitaessa on tärkeää pohtia sellaisia alueita, joissa sensuuri voisi olla perusteltua.

Esimerkiksi LLM-kehittäjät voisivat esittää, että moderointiin liittyvät ohjeet sisällön suhteen ovat välttämättömiä väärinkäyttöjen estämiseksi. Siten voitaisiin estää esimerkiksi rikoksiin liittyvät antamat ohjeistukset, tietynlaiset deepfaket, phishing-sähköpostien tekeminen tai haitallisen koodin tuottaminen.

OpenAI ja Geminillä on oikeus suojella brändiään olemasta yhteydessä edellä mainitun kaltaisen sisällön luomiseen. Monet yritykset käyttävät tekoälyyn pohjautuvia botteja suojellakseen käyttäjiään toksisuudelta ja häirinnältä.

EA Senior Game Product Manager Oindrila Mandal kommentoi Techopedian haastattelussa:

“AI-pohjaista sensuuria käytetään tällä hetkellä peliteollisuudessa keskustelujen ja live-keskustelujen moderointiin. Näiden sovellusten tarkoituksena on vähentää toksisuutta ja parantaa kaikkien pelaajien turvallisuutta.”

Mandal huomauttaa, että monet pelialan yritykset, kuten Riot Games ja Ubisoft, käyttävät AI-pohjaista sisällön moderointia vähentääkseen toksisuutta ja väärinkäytöksiä. Niiden käyttämät tekoälyteknologiat tunnistavat automaattisesti loukkaavan kielen ja sensuroivat sen tai ryhtyvät toimiin sitä käyttäviä pelaajia vastaan.

Mandal lisäsi:

“AI-pohjainen sensuuri voi olla tehokas työkalu, jos sitä käytetään oikein. On useita todisteita siitä, että näiden työkalujen avulla pystytään estämään verkkokiusaamista ja toksisuutta.”

“Kuitenkin säännöt sen suhteen, mikä sisältö voidaan sensuroida, on määriteltävä selkeästi, jotta AI-pohjainen sensuuri ei johtaisi perusteettoman sensuurin käyttämiseen.”

“Ratkaisuja on myös sovellettava eettisesti ja kaikkien osapuolten suostumuksella.”

AI-sääntely ja sensuuri – Yhteenveto

AI on edistyksellinen teknologia, mutta sen kyky rajoittaa ihmisten sananvapautta ei saa unohtua.

Tulevaisuudessa AI-sovelluksia kehittävien yritysten tulisi olla avoimempia moderointiin ja sensuuriin liittyen ja antaa käyttäjille mahdollisuus päättää itse, mikä on hyväksyttävää sisältöä.

Juuri näiden syiden takia AI-sääntely on tärkeää huomioida, jotta sen luoma sisältö olisi puolueetonta ja mahdollisimman objektiisivista.

Samankaltaiset termit

Aiheeseen liittyvät artikkelit

Tim Keary
Technology Specialist
Tim Keary
Teknologia-asiantuntija

Tammikuusta 2017 lähtien Tim Keary on toiminut itsenäisenä teknologia-kirjoittajana ja raportoijana, käsitellen yritysteknologiaa ja tietoturvaa.