Media & viestintä 48 (1), 2025: 59–86. https://doi.org/10.23983/mv.149489 ARTIKKELI 59 Arkisia informaatiohäiriöitä vai luovaa ilmaisua? Tehostetut videosisällöt ja syväväärennökset TikTokissa Tanja Sihvonen Tässä artikkelissa tarkastellaan tekoälyä hyödyntäviä työkaluja ja niiden avulla toteutettuja audiovisuaalisia sisältöjä videonjakoalusta TikTokissa. Tekoälyn avulla luotuihin sisältöihin viitataan usein sanalla synteettinen, mutta tässä tutkimuksessa kyseenalaistetaan jako ai- toon ja keinotekoiseen sisältöön. Tarkastelun viitekehyksenä toimii keskustelu kuvaan ja videoon perinteisesti liitetyistä ominaisuuksista, kuten aitoudesta ja todistusvoimaisuu- desta, joita tekoälyn avulla luotujen sisältöjen nähdään murentavan. Visuaalinen ja video- pohjainen ”todistusaineisto” on noussut informaatiohäiriön lähteeksi uusien some-alusto- jen myötä. TikTok on erityisen kiinnostava alusta tällaiselle analyysille, sillä se perustuu ni- menomaan kekseliään audiovisuaalisen sisällön luomiseen, jakeluun, katseluun ja kom- mentointiin. Siellä myös kiertää runsaasti journalistisia ja poliittisia videoita sekä erilaisia vaikutusyrityksiä. Näiden lisäksi TikTokissa huomionarvoista on, miten tehokkaasti alusta on madaltanut kynnystä editoida videoita, käyttää äänitehosteita ja osallistua erilaisten suodattimien kehitykseen. Suodattimien, lisäosien ja muokkaustyökalujen analyysin lisäksi artikkelissa käsitellään myös alusta loppuun tekoälyn avulla luotuja kuvia ja videoita (ns. syväväärennöksiä, deepfake) autenttisuuden ja epäaitouden kaltaisissa kehyksissä. AVAINSANAT: tekoäly, tehoste, syväväärennös, audiovisuaalisuus, TikTok iime vuosituhannen vaihteessa palloteltu tieto- ja informaatioyhteiskunnan idea vaikuttaa 2020-luvulle tultaessa paikantuneen keskusteluympäristöksi, jossa dis-, mis- ja malinformaatiosta puhutaan enemmän kuin legitiimin tiedon tai informaation välityksestä. Keskittyminen dataan ja tietoon liittyviin ongelmiin saattaa olla näköharha, jota media ja julkinen keskustelu osaltaan ylläpitävät, mutta toisaalta on kiistatonta, että informaation välitykseen liittyy uudenlaisia haasteita. Nämä teemat nousevat esiin myös korkealla poliittisella tasolla, kun sekä kansallisissa elimissä että Euroopan unionin taholta halutaan ottaa kantaa uusien teknologioiden mahdollistamiin ”väärän tiedon” muotoihin (ks. Bayer ym. 2019; Sillanpää 2021). Pyrki- mykset ottaa virheellisen tai harhaanjohtavan informaation levittäminen haltuun ovat toistaiseksi johtaneet tutkimuksiin, joissa ilmiöstä pyritään muodostamaan määrälli- nen yleiskuva (esim. Lim 2023) tai joissa tukeudutaan käsiteanalyysiin ja systemaatti- seen kirjallisuuskatsaukseen (esim. Kapantai ym. 2021). Tällaiset lähestymistavat eivät V Media & viestintä 48 (1), 2025: 59–86. https://doi.org/10.23983/mv.149489 MEDIA & VIESTINTÄ 1/2025 60 kuitenkaan tavoita arkisia informaatiohäiriön muotoja (Wardle ja Derakhshan 2017), joista monet voivat olla entistä epämääräisempiä ja vaikeammin hahmottuvia sekä sijoittua totuttua monimutkaisempaan informaatioympäristöön (Sillanpää 2021, 8–9). Toistaiseksi tunnetuimmat käsitteet tämän ilmiön kuvaamisessa, dis- ja misinformaa- tio, liittyvät yleisesti virheellisen informaation jakamiseen, joko tarkoituksella tai esi- merkiksi vahingossa ja epähuomiossa. Malinformaatio eli sinänsä oikean tiedon levi- tys vahingoittamistarkoituksessa on taas toisella tapaa ongelmallista, sillä siinä infor- maation laatu ei ole ongelman ytimessä vaan sen käyttötapa. Tällaisten tapausten tar- kastelussa onkin erityisen tärkeä ottaa huomioon konteksti (ks. Ireton ja Posetti 2018). Tässä artikkelissa tarkastellaan tekoälyä hyödyntäviä työkaluja ja niiden avulla to- teutettuja sisältöjä videonjakoalusta TikTokissa (ByteDance 2018–). Viittaan tekoälyllä tässä yhteydessä erilaisiin koneoppimista hyödyntäviin toiminnallisuuksiin, erityisesti kuvan ja äänen muokkausmahdollisuuksiin, jotka kytkeytyvät alustalla tapahtuvaan sisällöntuotantoon ja sisältöjen levitykseen. Tekoälyn avulla luotuihin viestinnällisiin sisältöihin viitataan usein sanalla synteettinen, mutta tarkoitukseni on tässä tutkimuk- sessa myös kyseenalaistaa jakoa aitoon ja keinotekoiseen sisältöön. Tarkastelun vii- tekehyksenä toimii keskustelu kuvaan ja videoon perinteisesti liitetyistä ominaisuuk- sista, kuten aitoudesta ja todistusvoimaisuudesta, joita tekoälyn avulla luotujen sisäl- töjen nähdään murentavan. ”Valokuva ei valehtele” ja muut vanhat opit on syytä ottaa kriittiseen tarkasteluun, sillä visuaalinen ja videopohjainen ”todistusaineisto” on noussut monin tavoin yllä mainitun informaatiohäiriön lähteeksi uusien somealusto- jen yleistymisen ja informaatioympäristöjen monimutkaistumisen myötä. TikTok on erityisen kiinnostava alusta tällaiselle analyysille, sillä se perustuu nimenomaan kek- seliään audiovisuaalisen sisällön luomiseen, jakeluun ja käyttöön. TikTok on myös henkilö- ja esityskeskeinen alusta, jolla julkaistavista videoista valtaosa nojaa niin sa- nottuun toisen persoonan näkökulmaan ja autenttiseksi koetun henkilökohtaisen yh- teyden luomiseen esiintyjän ja katsojan välille (ks. Cheng ja Li 2024, 203–205; Darvin 2022). TikTokia pidetään poikkeuksellisella tavalla luovuutta edistävänä alustana, joka yhtä aikaa kannustaa ja hillitsee käyttäjiensä pyrkimyksiä niin tuotannon kuin kulu- tuksenkin osalta (Kaye ym. 2022). Alusta on esimerkiksi onnistunut madaltamaan kyn- nystä opiskella videoeditointia sekä käyttää äänitehosteita ja erilaisia filttereitä vide- oiden tekemisessä. Vaikka kuvan- ja videonjakoon keskittyneitä sovelluksia on ollut useita muitakin, TikTok oli ensimmäisiä, jotka nousivat nopeasti maailmanlaajuiseen suosioon koronapandemian siivittämänä (Feldkamp 2021). Erilaiset editorit ja lisätyn todellisuuden (augmented reality, AR) teknologioiksi ni- metyt sisällön muokkausmahdollisuudet kukoistavat TikTokissa (ks. Bonner ym. 2023). Kutsun näitä muokkausmahdollisuuksia tässä artikkelissa yhteisnimellä tehosteet. TikTok lanseerasi tehosteet (jotka tunnetaan alustalla nimellä effects) vuonna 2019, ja vuonna 2022 se julkaisi oman työkalun, TikTok Effect Housen, niiden tekemiseen (Eugeni 2024, 500). Tehosteita voi tehdä kuka tahansa, ja alusta myös palkitsee rahal- Media & viestintä 48 (1), 2025: 59–86. https://doi.org/10.23983/mv.149489 MEDIA & VIESTINTÄ 1/2025 61 lisesti suosittujen tehosteiden tekijöitä. TikTokissa käytettäviä tehosteita on valtava määrä, ja niiden tekniset ominaisuudet vaihtelevat lähes huomaamattomista (esim. taustaäänen säätäminen, pisamien lisääminen ihmisesiintyjän iholle) syvällisesti koko videon sisältöä muokkaaviin (esim. esiintyjän kasvokuvan päälle kerrostuva interak- tiivinen, reaaliajassa pelattava peli). Käytännössä kyse on usein suodattimista eli filt- tereistä, jotka laskostuvat mobiililaitteella kuvatun videon päälle joko kuva- tai ääni- raidan tasolla. TikTokin oma määritelmä suodattimille korostaa niiden roolia esiase- tuksina, joiden avulla sisältöä muokataan joko kuvattaessa tai editoinnin yhteydessä.1 Toisaalta TikTokin, joka on ensisijaisesti mobiilisovellus, ByteDancen oman edi- tointisovelluksen CapCutin ja TikTokin verkkoversiosta avautuvien toiminnallisuuk- sien muodostama alustaympäristö myös aktiivisesti tarjoaa erilaisia mallipohjia ja li- säosia sisältöjen luomiseen. Onkin olennaista ottaa huomioon, että varsinaisen vide- onjakosovelluksen lisäksi TikTok alustana koostuu useita erilaisia käytön tapoja ja toi- mintoja tarjoavista osista, niin sanotuista alustatyökaluista (Mahetaji ja Nieborg 2024a, 23–25). Viime aikoina suosituiksi ovat nousseet interaktiiviset ja pelimäiset te- hosteet, jotka eivät useinkaan muuta tekijän itsensä tuottamaa videokuvaa vaan li- säävät siihen jonkin toiminnallisuuden. Viittasin näihin kaikkiin tämän tekstin alussa työkaluina, mutta tarkalleen ottaen niiden käytössä kyse on laajemmasta ilmiöstä kuin vain pikseleiden tai äänisignaalin päälle tulevien kerrosten muotoilusta ja väli- tyksestä. Tässä artikkelissa tutkimuskysymykseni on: Miten TikTok-sisällöissä käytettävien tehosteiden tarkasteleminen informaatiohäiriön näkökulmasta auttaa meitä ymmär- tämään tämänhetkisen informaatioympäristömme epävakaistumista? Olen tässä yh- teydessä erityisen kiinnostunut sellaisista TikTokissa käytettävistä, tekoälyä hyödyn- tävistä tehosteista, jotka säilyttävät autenttisuuden tai fotorealistisuuden illuusion auttaessaan videoiden tekijöitä muokkaamaan kasvojensa ulkonäköä – toisin sanoen näitä muokkaustoimia ei todennäköisesti pysty mitenkään päättelemään sisällöstä it- sestään. Jos työkalujen käyttö ei käy ilmi videoiden sisällöistä tai niiden metadatasta, katsojien oletus usein on, että videolla esiintyvä henkilö on todellisuudessa saman näköinen ja kuuloinen kuin tallenteella tai livelähetyksessä. Tämä lähtökohta vaikut- taa myös oletusarvoon videolla sanotun ja koetun luotettavuudesta: meillä on taipu- mus pitää toisia ihmisiä aitoina ja vilpittöminä, ja haluamme lähtökohtaisesti uskoa meille kerrotun todenperäisyyteen – tai ainakin arvostamme mukaansatempaavaa ta- rinaa, joka voisi hyvin ollakin totta. Brittiläisen runoilijan S. T. Coleridgen ajatus epä- uskosta pidättäytymisestä (suspension of disbelief) toimii hyvin myös analysoitaessa TikTok-videoiden kaltaisia aitouteen pyrkiviä performansseja. Tuotettu autenttisuu- den illuusio on merkittävässä roolissa monien muidenkin sosiaalisen median sisältö- jen toimivuutta ja kiinnostavuutta tarkasteltaessa (esim. Duffy ja Wissinger 2017). Tarkastelen tässä artikkelissa TikTokissa käytettyjä tehosteita neljällä eri tasolla. Tarkoitukseni on näiden neljän tason kautta havainnollistaa sitä, miten kokonais- Media & viestintä 48 (1), 2025: 59–86. https://doi.org/10.23983/mv.149489 MEDIA & VIESTINTÄ 1/2025 62 valtaisesti tekoälypohjaiset tehostetyökalut ovat tulleet osaksi alustan toimintalogiik- kaa ja rakennetta. Etenen analyysiesimerkkien kautta vaihe vaiheelta sisällön hieno- varaisesta muokkaamisesta kokonaisten synteettisten videoiden levitykseen. Tehoste-esimerkkeinä tarkastelen 1) suodattimia, kuten hiusten, silmien ja ihon vä- risävyä muuttavia sekä kasvojen ominaispiirteitä poistavia tai korostavia filttereitä, 2) sovelluksen lisäosia eli alustatyökaluja, kuten CapCut-videoeditorin kautta käyttöön otettavia mallipohjia ja efektejä, jotka määrittelevät jo enemmän esityksen reunaeh- toja, 3) varsinaisia muokkaustyökaluja, kuten editoinnin apuvälineitä sekä tekstien, kuvien ja efektien kerrostamisen mahdollisuuksia videoissa sekä lopulta 4) kokonais- valtaista tekoälypohjaista sisällöntuotantoa eli niin sanottuja syväväärennöksiä (deepfake). Siinä missä videoiden tehosteista on olemassa varsin vähän tutkimusta (ks. kuitenkin Bonner ym. 2023; Riccio ym. 2024), syväväärennöksistä on oltu kiinnos- tuneita muissa yhteyksissä jo pitkään (Helmus 2022; Mustak ym. 2023; Yu ym. 2021). Niihin liittyvät tunnereaktiot ovat myös tarjonneet aineksia aiheen journalistiselle kä- sittelylle.2 TikTokissa syväväärennökset näkyvät muun muassa toisen henkilön nimissä perustetuissa tileissä, esimerkiksi virtuaalisen Tom Cruisen elämää kuvaavassa tilissä @deeptomcruise, jolla on yli viisi miljoonaa seuraajaa ja lähes 20 miljoonaa tyk- käystä.3 Tämä artikkeli keskittyy TikTokiin, mutta tärkeä taustatekijä tässä analyysissa on havainto siitä, että TikTokin kasvavan suosion myötä alustalla luotu sisältö leviää vilk- kaasti muillekin somealustoille ja vaikuttaa laajasti koko digitaalisen median kent- tään. Koska tarkasteluni keskittyy TikTok-keskeisen informaatioympäristön rakenteel- liseen tarkasteluun, en ole voinut kerätä tätä tutkimusta varten rajattua aineistoa, jota analysoisin empiirisesti. Pohjaan analyysini vuosien varrella orgaanisesti keräytynei- siin esimerkkeihin, joita tarkastelen autoetnografisesta näkökulmasta suhteuttaen va- lintaani myös siihen, että somevideoiden tehosteista on olemassa vasta erittäin vähän tutkimustietoa. En esitä, että neljään tehostekategoriaan perustuva analyysini olisi kaikenkattava tai että joku toinen TikTokin tutkija-käyttäjä väistämättä päätyisi sa- maan lopputulokseen. Haluan tämän artikkelin avulla pikemminkin herätellä keskus- telua videosisältöjen merkityksestä sekä niiden tekoälyavusteisesta tuotannosta ja le- vityksestä laajemmassa kontekstissa. Tavoitteeni on osoittaa, miten monin erilaisin tavoin videosisältöjen muokkaus on mahdollista, miten muokkaukset toimivat infor- maatiohäiriöinä ja miten kukin näistä tavoista osaltaan edesauttaa ”häiriöiden” leviä- mistä myös TikTokin ulkopuolelle. Tehosteet toimivat TikTokissa, sillä alustan keskeinen voima on henkilökeskeisyy- dessä. Suuri osa siellä jaettavasta sisällöstä perustuu ihmiskasvojen kiehtovuudelle sekä katsekontaktin, elekielen ja kiinnostavan sanottavan yhdistelmälle, joka ilmaisu- voimassaan on samaan aikaan ajaton ja universaali sekä toisaalta altis tekoälyn avulla tapahtuvalle tuunaukselle (ks. Cheng ja Li 2024, 203). TikTokin voi sanoa olevan sosi- aalisesti, teknologisesti ja algoritmisesti virittäytynyt tekoälyn avulla luodun sisällön Media & viestintä 48 (1), 2025: 59–86. https://doi.org/10.23983/mv.149489 MEDIA & VIESTINTÄ 1/2025 63 leviämiseen. Ei olekaan yllättävää, että alustalla liikkuvassa sisällössä näkyvät uusim- mat trendit ja hurjimmat kokeilut. TikTokissa ovat parin viime vuoden aikana yleisty- neet esimerkiksi inhimillisen ja koneellisen toimijuuden välistä rajaa koettelevat ”ih- misrobotit” (human NPCs), jotka toteuttavat katsojien käskyjen ja rahalahjojen perus- teella erilaisia rutiineja ja temppuja live-esiintymisissään (Sihvonen ja Ask 2024). Toi- saalta alustalle ovat viime vuosina löytäneet tiensä myös virtuaaliset hahmot ja idolit, jotka YouTubesta tuttujen v-tubettajien tapaan piilottavat todellisen olemuksensa piirroshahmona esiintymisen taakse. Kaiken tämän keskellä TikTok toimii samaan aikaan kuitenkin myös vakavasti otet- tavan sisällön, kuten journalismin ja ajankohtaisen tiedonvälityksen sekä yhteiskun- nallisen ja poliittisen keskustelun areenana (Hendrickx 2023; Sihvonen ja Manninen 2024; Vázquez-Herrero ym. 2022; Widholm ym. 2024). Palvelussa kohtaavat monenlai- set motiivit ja vaikutusyritykset, ja koska alusta on niin vahvasti suuntautunut kohti teknologisesti uutta ja yllättävää, sitä voi jopa tarkastella jonkinlaisena tekoälyn kan- sanomaistumisen tai demokratisoitumisen koekenttänä. Samaan aikaan kun julkinen keskustelu tekoälystä on usein abstraktia, kärjistynyttä ja jakautunutta (esim. Brauner ym. 2023), TikTokin kaltaisilla alustoilla kekseliäisyyttä ja luovuutta osoittavat teko- älyn arkiset käyttötavat uhkaavat jäädä vaille ansaitsemaansa huomiota. Siksi tässä artikkelissa videosisällössä käytettäviin tehosteisiin liittyvää kontekstia hyödynne- tään sen pohtimisessa, millainen kulttuurinen muutos on käsillä, kun tekoälysisältö- jen tuottaminen ja levittäminen yleistyvät TikTokin kaltaisilla alustoilla ja myös muu- alla sosiaalisessa mediassa. Vaikka tässä artikkelissa keskitytään pääasiassa arkielämästä tuttuihin ja viihteel- lisiin tapauksiin, on muistettava, että samat tehosteiden ja tekoälytyökalujen mahdol- lisuudet ovat lisänneet informaatiohäiriöiden todennäköisyyttä niin sosiaalisessa kuin perinteisessäkin mediassa sekä virheellisen ja harhaanjohtavan informaation määrää mahdollisesti laajemminkin politiikassa ja yhteiskunnassa. Monet näillä työ- kaluilla tehdyt sisällöt ovat niin vakuuttavia, ettei niitä ole mahdollista erottaa legitii- mistä sisällöstä ilman ulkoisen kontekstin tarjoamia vihjeitä tai metadatan huolellista tarkastelua. TikTokiin tehdyt videot leviävät tehokkaasti myös muille alustoille ja jopa digitaaliseen journalismiin laajentaen tekoälysisältöjen ja siten myös misinformaa- tion kiertoa entisestään.4 Erityisesti deepfake-videoita onkin tähän mennessä tarkas- teltu tutkimuksessa juuri disinformaation, demokratiavastaisuuden ja verkkorikolli- suuden kehyksissä (esim. Caldwell ym. 2020; Pawelec 2022). Kysymykset näiden väli- neiden eettisestä käytöstä tai niiden kehitystyössä havaituista vääristyneistä en- nakko-oletuksista sekä tekijänoikeuksien loukkauksista ovat edelleen ratkaisematta. Kun tekoälyn käyttö yleistyy ja arkipäiväistyy, voidaan olettaa, että myös uusia ongel- mia ilmenee, samoin kuin ennennäkemättömiä mahdollisuuksia – sellaisiakin, joita emme osaa tällä hetkellä vielä edes kuvitella. Media & viestintä 48 (1), 2025: 59–86. https://doi.org/10.23983/mv.149489 MEDIA & VIESTINTÄ 1/2025 64 Tehosteiden taustatekniikkaa ja tavoitteita Vuoden 2023 helmikuun lopulla somemaailma kohahti ja TikTokin suodattimista tuli hetkeksi maailmanlaajuinen uutisaihe, kun Bold Glamour -niminen filtteri julkaistiin alustalla. Useat lehdet raportoivat, että suodattimen kyky muuttaa uskottavasti reaa- liajassa videolla esiintyviä kasvoja vaikutti kerrassaan hämmästyttävältä, ja että sen suosio nousi hetkessä: filtteriä käytettiin ensimmäisen viikon aikana TikTokissa yli yh- deksän miljoonaa kertaa.5 Kohut ovat laantuneet ja tekniikat kehittyneet, mutta suo- datin on edelleen suosittu.6 Tammikuussa 2025 sen nimellä tehty haku tuottaa alus- talla 269 miljoonaa osumaa.7 TikTokin taustayrityksen ByteDancen kehittämä Bold Gla- mour on ”kauneussuodatin” (beauty filter), joka muovaa käyttäjänsä kasvot konven- tionaalisen kauneuskäsityksen mukaisesti paremman näköisiksi. Se tasoittaa ihon pintaa, pienentää nenää, lisää huulten täyteläisyyttä, vahvistaa kulmakarvoja ja ripsiä, terävöittää leukalinjaa ja kasvojen kontrastia sekä varmistaa kasvojen symmetrisyy- den. Näiden lisäksi suodatin korostaa silmiä lisäämällä niiden kiiltoa ja tuomalla nii- den katseeseen syvyyttä – ja se tekee tämän kaiken siten, että lähikuvassa esiintyvät ihmisen elehtivät kasvot mikroilmeineen näyttävät täysin luonnollisilta ja uskottavilta (ks. Kuva 1). Kuva 1. Videolla käyttäjä @avafaymodel kuvaa tuntemuksiaan Bold Glamour -suodattimen käytöstä. Esimerkki edustaa tyypillistä alkuvaiheen testausvideota, jossa tiktokkaaja purkaa yhtäaikaista hämmennystään ja iloa suodattimen muotoilemasta ulkonäöstä, 27.2.2023. (Kuvakaappaukset kirjoittajan, kuvista poistettu puhelimen tunnistetietoja.) Media & viestintä 48 (1), 2025: 59–86. https://doi.org/10.23983/mv.149489 MEDIA & VIESTINTÄ 1/2025 65 Bold Glamourin käyttöä kuvattiin sen ilmestymisen aikoihin häkellyttäväksi, kou- kuttavaksi ja toisaalta myös masentavaksi. Sen teho ei perustunut kauniiksi määritel- tyjen kasvonpiirteiden tuomiseen henkilön omien kasvojen päälle, vaan jokaisen yk- silöllisten piirteiden esittämiseen ikään kuin parhaassa mahdollisessa valossa. Tosin pian huomattiin, että suodatin toimii parhaiten nuorten, valkoihoisten ja länsimaa- laisten kasvojen kohdalla – tendenssi, joka on näkynyt somefilttereiden kehitystyössä jo pitkään (ks. Riccio ym. 2024). Suodatinta ovat käyttäneet runsaasti myös miehet (ja filtterin kyky ”tunnistaa” henkilön sukupuoli on herättänyt omanlaistaan kiinnostavaa keskustelua8), mutta tummaihoisten kasvoja suodatin ei aina ole onnistunut ”kaunis- tamaan”.9 Julkisuudessa sitä kohtaan on esitetty kritiikkiä paitsi epärealististen kau- neusnormien vahvistamisesta myös erityisesti nuorten naisten ulkonäköideaalin ja kehonkuvan vääristymisestä.10 Vastaavia filttereitä on tähän mennessä tutkimuksessa lähestytty lähinnä siitä näkökulmasta, mitä niiden käyttö mahdollisesti tekee tyttöjen ja nuorten naisten henkiselle hyvinvoinnille (Dijkslag ym. 2024), miten niitä voi hyö- dyntää kaupallisesti (Ibáñez-Sánchez ym. 2022) sekä millaisia yhteiskunnallisia ongel- mia ja rikollisuuteen liittyviä käyttötapoja ne edistävät (Pendergrass 2023). Identiteettitekijöihin kuten ikään ja sukupuoleen liittyvän keskustelun ohella Bold Glamourin tapaiset TikTok-filtterit ovat inspiroineet sosiaalisen median teknologista tutkimusta ja erityisesti ihmislähtöisen tekoälyn pohdintaa (Bonner ym. 2023). Kasvo- jen päälle asetettavat AR-suodattimet eivät sinänsä ole uusi asia; esimerkiksi Snap- chatissa ensimmäiset Lenses-työkalulla tehdyt lisäkkeet videokuvassa nähtiin vuonna 2015 (Eugeni 2024, 499). Myös Instagram on jo pitkään profiloitunut erilaisten kuvafilt- terien kehittäjänä (Javornik ym. 2022). Kasvokuvia muokkaavia suodattimia alettiin jul- kaista Instagramissa vuonna 2017.11 Myös TikTokissa on useiden vuosien ajan ollut kier- rossa valtava määrä ihmisten (ja myös muunlajisten esiintyjien) ulkonäköä muuttavia, nyttemmin perinteisiksi kutsuttuja suodattimia. Niiden tekniikka on perustunut kaksi- ulotteisen kuvan päälle liimautuvaan 3D-mallinnokseen (ns. face mesh), jonka osana filtteri toimii. Liikkeessä tai esimerkiksi nostettaessa käsi kasvojen eteen tällainen filt- teri tulee kuitenkin helposti näkyviin, sillä se ei tahdo pysyä pään tai minkään muun- kaan kolmiulotteisen kappaleen liikekielessä mukana. Nähtäväksi tarkoitettuja perinteisiä suodattimia, esimerkiksi eläinten korvien tai hassun hatun lisäämistä kasvokuvaan, on usein tarkasteltu ikään kuin naamioina, jotka on suunniteltu lähinnä hupikäyttöön. Niiden käytön motivaatioita onkin etsitty muun muassa hauskuutuksen, sosiaalisen kanssakäymisen, leikillisyyden, yhteenkuu- luvuuden vahvistamisen ja ulkonäön parantelun näkökulmista (esim. Ibáñez-Sánchez ym. 2022; Herring ym. 2024, 3). Bold Glamour toi tähän jatkumoon ainakin kahdenlaisen muutoksen: ensinnäkin se nosti sosiaalisessa mediassa käytettävät filtterit yhteiskun- nallisen keskustelun areenalle,12 ja toiseksi se osoitti, miten merkittäviä muutoksia te- koälyohjattujen työkalujen käyttö on tuonut ja voi vastaisuudessakin tuoda somevies- tintään (Eugeni 2024, 500–501). Media & viestintä 48 (1), 2025: 59–86. https://doi.org/10.23983/mv.149489 MEDIA & VIESTINTÄ 1/2025 66 Kuva 2. Käyttäjä @zhangsta demonstroi TikTokissa Bold Glamour -suodattimen toimintaa ja ottaa videollaan kantaa myös aiemmin käytössä olleisiin tehosteisiin, 2.3.2023. (Kuvakaappaukset kirjoittajan, kuvista poistettu puhelimen tunnistetietoja.) Siinä missä perinteiset suodattimet on mahdollista tunnistaa ylimääräisiksi tehos- teiksi, kun ne rakentuvat omaksi kerroksekseen ihmiskasvojen päälle, Bold Glamourin kaltaiset suodattimet perustuvat niin sanottuun GAN-teknologiaan (Generative Adver- sarial Network, ks. Goodfellow ym. 2014), jossa tekoälyllä ohjautuva malli muovaa ruu- dulla nähtäviä kasvoja sulautuen saumattomasti niiden liikekieleen.13 GANit ovat esi- merkki neuroverkoista, jotka oppivat autonomisesti malleja syötetystä datasta luo- dakseen sen perusteella uusia sisältöjä. Niiden kuten muidenkin vastaavien genera- tiivisten työkalujen tavoitteena on tuottaa synteettisiä tuotoksia, jotka muistuttavat mahdollisimman tarkasti niiden koulutukseen käytettyä dataa (Jacobsen ja Simpson 2024, 1098). Kuten kuvassa 2 nähdään, GAN asettaa ikään kuin kaksi kilpailevaa teko- älynäkemystä vastakkain kolmannen mallin luomista varten, eli siinä kahden lasken- tamallin välistä ”ristiriitaa” käytetään generatiivisesti kolmannen mallin luomiseen. Esimerkiksi Bold Glamour -suodattimen kohdalla kilpaillaan sen välillä, mitä puheli- men kamera tunnistaa kasvoiksi erityisesti siihen koulutetun tekniikan avulla (face recognition technology) ja millaisiksi ”ideaalikasvoiksi” suodatin haluaa ne muuttaa (Pendergrass 2023). Kun kasvoja kuvaa kameralla, suodatin vertaa niiden osia, kuten silmiä, leukaa, nenää ja kulmakarvoja, keräämäänsä valtavaan tietokantaan ja muut- taa niiden piirteitä pikseli pikseliltä haluttuun suuntaan (Weatherbed ja Sato 2023). Kun työkalun laskentateho ja kuvan virkistystaajuus ovat tarpeeksi suuria, suodatin Media & viestintä 48 (1), 2025: 59–86. https://doi.org/10.23983/mv.149489 MEDIA & VIESTINTÄ 1/2025 67 pystyy toimimaan huomaamattomasti jopa reaaliaikaisen, liikkuvan videokuvan osana (Kuva 2). Bold Glamourin taustalla olevaa tekoälyä on koulutettu suurella määrällä TikTokista kerättyjä kasvokuvia, joiden ominaispiirteiden perusteella suodatin osaa korvata jokaisen ruudulla näkyvän pikselin sen suotuisammaksi tulkitulla versiolla.14 Sen lisäksi, että Bold Glamourin tapaisten suodattimien koulutuksessa on käytetty valtava määrä dataa, jonka keräyksen periaatteista tai ehdoista ei ole julkisesti jaettu mitään informaatiota, niiden tavoitteista tai toimintaperiaatteista löytyy toistaiseksi tietoa lähinnä takaisinmallinnukseen perustuvien yksittäisten käyttökokemusten ta- solla.15 On myös tärkeä muistaa, että jokaisen tekoälytyökalun taustalla on suuri määrä ihmistyötä ja inhimillisiä valintoja, eikä tekoäly itsestään ilmesty keskelle viestinnäl- lisiä tilanteita tai vuorovaikutussuhteita. Tekniikan kehittäjien, sovellusympäristön ja toisaalta käyttäjien mieltymysten täytyy sopia yhteen tavoilla, jotka mahdollistavat tekoälytyökalujen tehokkaan hyödyntämisen. Tässä yhteydessä on kiinnostavaa, että TikTok kieltäytyi pitkään ottamasta kantaa kehittämiensä suodattimien käyttötapoi- hin tai edes kommentoimasta niiden tekoälyperustaisuutta.16 Alustan on kuitenkin nähty jo pitkään valmistelevan eräänlaista tekoälyvallankumousta (esim. Davis 2019). On todennäköistä, että TikTokin taustayhtiö seuraa erittäin valppaasti generatiivisen tekoälyn kehitystä ja sen mahdollistamia uusia toiminnallisuuksia sekä alustan liike- toimintamuotojen että käyttökulttuurien näkökulmasta. Tässä tutkimuksessa käsitte- lemäni tehosteet ovat keskeinen, joskin toistaiseksi vähäiselle huomiolle jäänyt tapa tuoda tekoälytoiminnallisuuksia jokaisen käyttäjän ulottuville – sekä kerätä valtavia määriä dataa yhä tarkempien uusien tekoälymallien koulutukseen (ks. Eugeni 2022, 227–228). Lisätyn todellisuuden työkalut Tehosteita käytetään TikTokissa erityisesti kasvokuvien muokkaamiseen, mutta niiden käytön motivaatiot ja tavoitteet ovat moninaisia. Tärkeä konteksti tehosteiden tarkas- telulle on itse alusta, TikTok, jolla julkaistu sisältö koostuu voittopuolisesti nimen- omaan lähikuvassa tai puolilähikuvassa esiintyvistä ihmiskasvoista. Kasvoja itses- säänkin voi tarkastella keskeisenä viestinnän välineenä, sillä niiden avulla viestitään myös liikkeen, eleiden ja ilmeiden tasolla sekä multimodaalisesti (esim. Pilipets 2023). Visuaalisuuden ohella on olennaista ottaa huomioon videosisältöjen ääneen liittyvät valinnat (ks. Darvin 2022, 3–4). Multimodaalisuuden näkökulmasta puheäänen pro- sodisten piirteiden, esimerkiksi sävelkulun, rytmin, keston, nopeuden ja äänensävyn, tarkastelu nousee yhtä lailla tärkeäksi osaksi TikTok-videoiden analyysia. Prosodia liittyy myös puhujan liikekieleen. Sanallisesti, puheen tai vaikkapa laulun kautta il- maistu viesti voi myös täydentyä olennaisesti kasvojen kertomasta tai olla jopa risti- riidassa sen kanssa. Intiimiltä etäisyydeltä kuvatuissa videoissa silmien liikkeet, Media & viestintä 48 (1), 2025: 59–86. https://doi.org/10.23983/mv.149489 MEDIA & VIESTINTÄ 1/2025 68 kasvojen muodot ja ihon pinnassa näkyvät mikroilmeet saavat toisinaan aikaan isoja- kin merkityssiirtymiä. Vaikka tässä artikkelissa keskitytään kuvaan liittyviin tehostei- siin, myös puheäänen muokkaus tekoälyllä on tutkimisen arvoinen ilmiö informaatio- häiriöiden ja misinformaation kontekstissa (esim. Groh ym. 2024). Tekoälytyökalujen yleisyydestä kertoo jotain, että puhuvien kasvojen pienistä yk- sityiskohdista on joukkoistamalla yritetty tulkita erilaisten videoiden generatiivista taustaa. Tunnettu äskettäinen esimerkki somemaailmassa kohua herättäneestä ta- pauksesta on Walesin prinsessa Catherinen terveyssyistä johtunut poistuminen julki- suudesta alkuvuonna 2024 ja tämän ”katoamisen” synnyttämä spekulointi muun mu- assa tunnisteen #whereiskate alla.17 Jo valmiiksi kuumana käynyttä somekeskustelua villitsi entisestään prinsessan ”selitysvideoksi” tulkittu ulostulo YouTubessa18, jonka epäilyttäviksi koettuja piirteitä ja täten mahdollista tekoälytaustaa analysoitiin myös TikTok-videoissa keväällä 2024.19 Sen lisäksi, että tällaisia varmistetuista lähteistä pe- räisin olevia videoita tarkastellaan muokkausten varalta yksittäisistä pysäytyskuvista pyydystettyjen pikselien tasolla, kokonaiskuvaa hämmentää se, että epäilyksen alai- sista videoista levitetään myös itsetarkoituksellisesti tekoälyllä muokattuja versioita. Tällaisia muunneltuja videoita voi informaatiohäiriön kehyksessä tarkastella monesta eri näkökulmasta, niin dis-, mis- kuin malinformaationakin. Ihmiskeskeisen teknologiatutkimuksen viitekehyksessä on selvää, että järjestel- mien ja sovellusten affordanssit eli tarjoumat muokkaavat merkittävästi sitä odotus- horisonttia, jonka puitteissa teknologinen toimijuus tulee kussakin tilanteessa mah- dolliseksi. TikTokin viestinnällinen ympäristö hahmottuu tekoälyyn liittyvien tehostei- den, kuvien ja videoiden analyysityökalujen sekä algoritmisesti rakentuvien tulkitsija- verkostojen kautta yllätykselliseksi ja emergentiksi. TikTokin on verkostojen ja yhtei- söjen näkökulmasta tulkittu myös luovan käyttäjilleen hyvin henkilökohtaiseen jaka- miseen kannustavia turvallisia tiloja (Şot 2022). Etenkin julkisuuden henkilöihin liitty- vät intiimit ja paljastavat videot kiinnostavat monia, ja tällaisten videoiden uskotta- valle ja autenttisuutta simuloivalle generoinnille on olemassa vahva yhteisen tulkin- nan ja jakamisen insentiivi. Tekoäly auttaa TikTokin sisällöntuottajia luomaan viraali- videoita ja memeettistä sisältöä, jotka usein perustuvat jäljittelyyn ja kopiointiin (vrt. imitation publics, Zulli ja Zulli 2022). Tässä avuksi tulevat sovelluksen lisäosat eli alus- tatyökalut ja sisällön muokkaustyökalut, kuten editoinnin apuvälineet, jotka olen luo- kitellut tehosteisiin keskittyvän tarkasteluni toiseen ja kolmanteen kategoriaan. Tik- Tok-tuotannossa niiden käyttö voi esimerkiksi yksinkertaistaa videoiden muokkausta, ja niiden avulla voi lisätä musiikkia, aihetunnisteita, suodattimia ja muita parannuksia, jotka ovat trendikkäitä juuri sillä hetkellä tai jotka ovat osoittautuneet suosituiksi jon- kun tietyn kategorian perusteella (Davis 2019). Näin TikTok-videoiden tuotantoa voi tekoälyn avulla ikään kuin algoritmisesti asemoida alustan keskeiseen käyttöliitty- mään, kuratoituun For You Page -syötteeseen (FYP) sopivammaksi (ks. Darvin 2022, 2). Media & viestintä 48 (1), 2025: 59–86. https://doi.org/10.23983/mv.149489 MEDIA & VIESTINTÄ 1/2025 69 ByteDancen oma videoiden editointisovellus CapCut toimii keskeisenä taustateki- jänä onnistuneen (eli tykätyn, jaetun ja kommentoidun) sisällön tuotannossa. Audio- visuaalinen ilmaisu on eri moodien ja modaliteettien yhteenliittämisen taidetta, ja CapCutin tapaisen ohjelman käyttäminen antaa tiktokkaajalle tässä suhteessa merkit- tävää ”kotikenttäetua”. CapCutia voi tarkastella konkreettisena esimerkkinä alusta- työkalusta ja affordanssista, jonka käyttöönotto ja jonka ehdoilla toimiminen ovat keskeinen osa TikTokissa menestymistä niin videoiden tuottamisen kuin myös niiden leviämisen ja interaktiivisuuden näkökulmasta (ks. Mahetaji ja Nieborg 2024b). Cap- Cutin mallipohjia, efektejä ja äänivalikoimaa hyödynnettäessä on esimerkiksi toden- näköisempää, että video saa näkyvyyttä yhä useammassa FYP-syötteessä. CapCutin kautta avautuvat tehosteet, kuten Beauty Modeksi kutsuttu retusointityökalu, muok- kaavat olennaisella tavalla sitä informaatioympäristöä, jossa ihmiskasvot tulevat nä- kyviksi ja tulkituiksi tekoälyn muokkaamina. Vaikka kyse on Beauty Moden kohdalla näennäisesti ihon ja kasvonpiirteiden hienovaraisesta ”parantelusta”, elämme jo nyt tilanteessa, jossa Beauty Moden käyttäminen on oletusarvo ja sen käyttämättä jättä- minen tietoinen valinta, joka voi vaikeuttaa videoiden näkyvyyttä ja hyväksyttävyyttä alustalla. Kuva 3. Kauneusvaikuttaja @laviniarusanda tekee TikTok-videoita, joissa hän näyttää konkreettisesti eri tehosteita ja Beauty Mode -retusointityökalua vaihtelemalla sekä valaistusta säätämällä, millaisia ulkonäköön ja erityisesti ihoon liittyviä kauneusnormeja somevaikuttajan työhön liittyy, 15.6.2024. (Kuvakaappaukset kirjoittajan, kuvista poistettu puhelimen tunnistetietoja.) Media & viestintä 48 (1), 2025: 59–86. https://doi.org/10.23983/mv.149489 MEDIA & VIESTINTÄ 1/2025 70 TikTokin tapaisessa ympäristössä puhujan ulkonäön miellyttävyys on tärkeä osa sitä tulkintakehikkoa, jossa puhujan sanoma tulee kuulluksi ja ymmärretyksi. Tämä tulkintakehikko ei ole yksioikoinen, ja myös TikTokissa on runsaasti videoita, joissa kommentoidaan alustan (tai laajemmin sosiaalisen median) ulkonäköihanteita kriit- tiseen ja ”vinoon” sävyyn (ks. Kuva 3). Lähtökohta kuitenkin on, että tietynlaisen ulko- näön ylläpitämistä somessa voi tarkastella affektiivisena työnä, jossa kauneudesta ”huolehtiminen” näyttäytyy symbolisena pääomana ja sosiaalisena velvollisuutena erityisesti naisille (ks. Pieters ym. 2024). Tässä yhteydessä voi tosin kysyä, miten TikTok loppujen lopuksi eroaa ei-digitaalisesta maailmasta: esimerkiksi kasvojen ehostami- sen nähdään olevan tärkeä osa kenen tahansa julkista esiintymistä ja myös tapa var- mistaa niiden viestinnällinen toimivuus (ks. Riccio ym. 2024, 11–12). Lisäksi meikkaa- miseen liittyy vahvoja oletuksia muun muassa sukupuolesta, luokasta ja etnisyydestä. Tietyssä mielessä Bold Glamour, Beauty Mode ja muut tehosteet siis vain jatkavat so- men ulkopuolisesta maailmasta tuttua tendenssiä tarjoamalla tiktokkaajien käyttöön helppokäyttöisiä ulkonäkötyökaluja, joiden avulla ihmiskasvoja saadaan hetkessä ja huomaamattomasti muokattua paremman näköisiksi. Miellyttävistä ja palkitsevista käyttökokemuksista huolimatta tehosteiden käyt- töön liittyy kuitenkin myös ongelmia: ne rakentavat ensinnäkin hegemonista ja nor- matiivista käsitystä kauneudesta, joka on kirjaimellisesti orgaanisten, digitaalisesti parantelemattomien kasvojen ulottumattomissa. Tekoälyn ja kauneusnormien välinen suhde on lisäksi voimakkaan sukupuolittunut (ks. Adami 2024). Ulkonäköön liittyviin vahvoihin oletuksiin on toden teolla herätty vasta kun nuorten naisten epärealistisista uskomuksista ja odotuksista on tullut yhteiskunnallinen ongelma (Pendergrass 2023; Szambolics ym. 2023). Tästä näkökulmasta onkin outoa, miten vähän ulkonäköön tai ehostukseen liittyvää tutkimusta tehdään aiheen sosiokulttuuriseen ja vaikkapa kos- metiikkateollisuuden kaupalliseen merkitykseen nähden (ks. kuitenkin Åberg ym. 2019). Toiseksi huolenaiheeksi voi nähdä sen, että tehosteiden kautta TikTok-alustan toiminnallisuudet, tekoälypohjaiset työkalut ja niiden kehitystyö sekä sisältöjen luo- minen ja leviäminen kytketään elimellisellä tavalla toisiinsa. Toisin sanoen tekoälyn ja tehosteiden käytöstä tulee vaatimus sille, että videosisältö toimii TikTokissa. TikTok siis laajenee alustatyökalujen ja eri toiminnallisuuksien kautta algoritmiseksi ekosys- teemiksi, joka rakentaa tekoälypohjaisesti omat ehtonsa sisällön näkyvyydelle sekä määrittelee yksittäisille käyttäjille mahdollisen toimintakentän. Kun TikTok-videoita levitetään yhä enemmän myös itse alustan ulkopuolella, alustan määrittelemä este- tiikka tehosteineen liukuu vähitellen koko somemaailman oletusarvoksi. Tehosteet liittyvät suoraan sekä tekoälyn kehitystyöhön että someviestinnän kaupallistumiseen, ja lisäksi niillä on oma osuutensa syväväärennösteknologialla toteutetun mis- ja dis- informaation leviämisessä sekä informaatiohäiriöiden yleistymisessä (vrt. Eugeni 2022; 2024). Media & viestintä 48 (1), 2025: 59–86. https://doi.org/10.23983/mv.149489 MEDIA & VIESTINTÄ 1/2025 71 Tekoälyllä luodut kasvot ja identiteetit Tehosteiden historian tarkastelu paljastaa, että niiden kehitystyössä kaupalliset ja muut ulkoiseen vaikuttamiseen pyrkivät lähtökohdat ovat olleet läsnä alusta asti (Eugeni 2024, 499–500). Esimerkiksi Instagramissa julkisuuden henkilöiden ja kosme- tiikkamallien virheettömän kauneuden takaaminen sekä muidenkin somevaikuttajien ”henkilöbrändäyksen” tukeminen filttereitä kehittämällä on pitkään koettu tärkeäksi osaksi sen ekosysteemiä (ks. Abidin 2016). Tekoälypohjaisten tehosteiden käyttöön- otto on osa pitkää jatkumoa, jossa yritysten tarve tuottaa alusta ja sille sopivia käyt- tötarkoituksia kohtaa yleisöjen ja käyttäjien tarpeet ilmaista itseään, kuulua poruk- kaan, osoittaa kannatusta ihailun kohteille ja niin edelleen. Alustatalouden näkökul- masta TikTokissa tehtävää luovaa työtä arvostetaan enemmän sitouttavuuden, viraali- sisältöjen ja käyttäjätiedon tuottamisen kannalta kuin videoiden erityisten kulttuuris- ten tai esteettisten arvojen perusteella (Collie ja Wilson-Barnao 2020, 173). Näin Tik- Tok-videoiden luominen tulee osaksi digitaalisen kapitalismin kiertokulkua, jossa yk- sittäiset tekijät tai sisällöt saattavat aivan odottamattomasti nousta kaupallisesti tai poliittisesti arvokkaiksi (ks. Kaye ym. 2022). Kaiken tämän sosiaalisen ja algoritmisen vuorovaikutuksen ytimessä on ihmisten sisäsyntyinen kiinnostus kasvoihin (Kanwisher 2001). Moni psykologian, sosiologian ja viestinnän teoria rakentuu sille olettamukselle, että ihmisillä on taipumus pitää muita ihmisiä lähtökohtaisesti aitoina ja luotettavina (ks. Goffman 1990). Näin on ollut mah- dollista rakentaa keskinäiseen luottamukseen ja yhteenkuuluvaisuuteen perustuvia ihmisyhteisöjä, joista aikanaan on kehittynyt yhteiskuntia ja jopa globaalille tasolle ulottuvia vuorovaikutussuhteita ihmisten välille. Yksi keskeisistä luottamuksen ja us- kottavuuden mekanismeista yksilölle on toisen kasvojen arviointi, jonka osana vaiku- telma toisen ihmisen vilpittömyydestä syntyy jo nopean vilkaisun aikana (Todorov ym. 2009). On kiinnostavaa pohtia, miten tämä mekanismi muuttuu, jos meille tarjoillaan sosiaalisessa mediassa jatkuvasti kasvokuvia, jotka näyttävät täysin aidoilta, mutta joita ei todellisuudessa ole olemassa. Tämän teeman voi laajentaa myös yhteiskun- nalliselle tasolle kysymällä, mitä luottamukselle tapahtuu tilanteessa, jossa yhä use- ammat näkemämme kasvot mainoksissa, journalismissa, poliittisessa vaikuttamisessa ja jopa arkisissa vuorovaikutustilanteissa ovat tekoälyn tuottamia eivätkä kuulu elä- ville ihmisille (vrt. Pendergrass 2023, 120). On mahdotonta arvioida, miten laaja ilmiö tietoisesti tekoälyllä luotujen kasvo- kuvien käyttö on esimerkiksi poliittisen propagandan tai kybersodankäynnin kaltai- sissa konteksteissa. Aiemman trollausta ja astroturffausta käsittelevän tutkimuksen perusteella tiedetään, että eriasteisten valehenkilöllisyyksien luominen on esimer- kiksi vaalivaikuttamisessa ja valtiollisessa tiedustelutoiminnassa tavallista (Swed ym. 2024, 4–6). Aiemmin lienee olleen tapana, että valeprofiilin kuva oli esimerkiksi kopi- oitu suoraan jostain toisesta profiilista, mutta tekoälytyökalujen yleistyttyä on ole- Media & viestintä 48 (1), 2025: 59–86. https://doi.org/10.23983/mv.149489 MEDIA & VIESTINTÄ 1/2025 72 tettavaa, että profiilikuvat on luotu suoraan GAN-tekniikalla. Myös julkisuuteen on noussut tapauksia, joiden kautta on käsitelty tekoälyprofiilin saamaa yllättävää suo- siota esimerkiksi LinkedInin ja Facebookin kaltaisilla verkostoitumisalustoilla.20 Jos tarkastelua laajennetaan digitaalisen maailman ulkopuolelle, on luultavaa, että vale- henkilöllisyyksien luominen ja ylläpitäminen on ollut osa inhimillistä kanssakäymistä kautta aikojen. Esimerkiksi antiikin Kreikan mytologiassa ja Shakespearen näytelmissä toisen henkilöllisyyden turvin esiintyminen on keskeinen osa sosiaalisen todellisuu- den ja ihmissuhdekudelmien rakentumista. Viime vuosina tapahtuneiden teknologisten hyppäysten myötä tekoälyä hyödyntä- vät järjestelmät ovat kuitenkin tuoneet generoidut kasvot ja väärien henkilöllisyyksien turvin esiintyvät yksilöt uudella tavalla huomion kohteeksi. Tekoälyllä tuotettuja kas- vokuvia on tarkasteltu sekä taiteellisissa (esim. This Person Does Not Exist -projekti21) että tieteellisissä hankkeissa (Thies ym. 2018). Tutkimuksessa on todettu, että ihmiset eivät ainoastaan ole huonoja erottelemaan aitoja ja tekoälyllä tuotettuja kasvokuvia toisistaan, he itse asiassa luottavat generoituihin kasvoihin enemmän (Tucciarelli ym. 2022).22 Tämä huomio kytkeytyy laajaan poliittiseen ja yhteiskunnalliseen debattiin te- koälyllä luodun sisällön merkityksestä ja toimivuudesta. Generatiivisen tekoälyn luo- vasta ja toisaalta tulkitsevasta potentiaalista käydään tällä hetkellä monella suun- nalla keskusteluja, joiden ytimessä on ihmisyksilöiden ja -yhteisöjen väistämättä muuttuva asema osana ihmis-koneviestinnän tulevaisuutta. On esitetty pessimistisiä arvioita, joiden mukaan digitaalisesti medioitu kanssakäyminen lisääntyy entisestään ja algoritmisesti tuotettujen ihmiskasvojen ja -kehojen määrä ympäristössämme kas- vaa, ja siten vuorovaikutukseen ja sosiaaliseen luottamukseen perustuva yhteiskun- tarakenteemme vähitellen murenee.23 Näennäisestä pinnallisuudestaan huolimatta someviestinnän tehosteisiin keskittyvä analyysi tuo siis esiin syvällisen uhkakuvan ai- don ja epäaidon inhimillisyyden sekoittumisesta ja hämärtymisestä. Syväväärennösten käyttötarkoitus ja toimivuus Laajimmalle levinnyt ja jo pitkään katsojia hämännyt tehosteisiin liittyvän tekoälypoh- jaisen sisältötuotannon muoto on syväväärennös (deepfake), jossa joko osittain tai kokonaan generoituja videoita levitetään aitoina tallenteina oikeiden ihmisten teke- misistä (ks. Broinowski ja Martin 2024, 3–4). Niiden avulla esimerkiksi tietyn poliitikon pitämä puhe on voitu toteuttaa videokuvaamalla kokonaan toista ihmistä ja editoi- malla kasvojen ja puheäänen keskeisiä piirteitä tietokoneen avulla muistuttamaan kohdehenkilön esiintymistä. Syväväärennöksistä on lukuisia esimerkkejä, joissa sosi- aalisen vaikuttajan tai poliitikon hahmoa käytetään jonkin agendan ajamiseen.24 Teko- älyn luomia, täysin uskottavia videoita Vladimir Putinista, Barack Obamasta ja Donald Trumpista on kiertänyt julkisuudessa, ja usein tällaiset videot koetaan media- Media & viestintä 48 (1), 2025: 59–86. https://doi.org/10.23983/mv.149489 MEDIA & VIESTINTÄ 1/2025 73 vastaanotossa sekä vaikuttavina että ahdistavina. Julkisuuden henkilöitä hyödyntävät videot taas toimivat monesti kaupallisissa tarkoituksissa. Tekoälyn luomaa Taylor Swiftiä on käytetty mainostamaan Le Creuset -keittiötarvikkeita ja Morgan Freemanin virtuaalipersoona on saanut toimia näytteenä tekoälyfirman palveluvalikoimasta.25 Lisäksi on olemassa seksuaalista väkivaltaa edustava ”kostopornon” lajityyppi, jossa tekoälyllä luotuja tai muokattuja kuvastoja kierrätetään tietoverkoissa kohteen häpäi- semis- ja hiljentämistarkoituksissa (Maddocks 2020). Pornografisissa tarkoituksissa tehtyjen väärennösvideoiden arvioidaan kattavan jopa yli 90 prosenttia kaikesta deepfake-tuotannosta, ja käytännössä kaikki näistä videoista kuvaavat nuoria naisia (ks. Adjer ym. 2019; Jacobsen ja Simpson 2024, 1098–1099). Tämä sukupuolittunut digi- taalisen väkivallan muoto on erityisesti tietyissä maissa merkittävä yhteiskunnallinen ongelma. Poliittisessa, kaupallisessa tai jopa informaatiovaikuttamisen kontekstissa esitel- tyihin tekoälysisältöihin liittyy usein negatiivinen mediahuomio tai jopa suoranainen mediapaniikki. Ei olekaan ihme, että useat uutistoimistot ja muut organisaatiot ovat tuottaneet yleisöjä ”valistavaa” sisältöä, jossa varoitetaan näiden työkalujen käytöstä ja syväväärennösten kierron negatiivisista seurauksista.26 Tällä hetkellä tekoälyavus- teinen videotuotanto on kuitenkin sellaisessa pisteessä, että vapaasti saatavilla ole- vien ja helppokäyttöisten työkalujen myötä syväväärennöksiä voidaan tuottaa mel- keinpä mistä tahansa kohteesta, oli tämä sitten elävä, kuollut tai kokonaan kuvitteel- linen. Ihmisen kasvonpiirteet, mikroilmeet, eleet ja puheääni voidaan tehokkaasti mallintaa ja/tai kopioida vaikkapa virtuaaliselle henkilöbrändille eli sometilille, jonka on tarkoitus tehdä somevaikuttajana yhteistyötä kaupallisten toimijoiden kanssa. Täl- laisista ”virtuaalivaikuttajista” on jo toimivia esimerkkejä (Drenten ja Brooks 2020), myös TikTokissa, ja kiinnostavaa on, että tietyissä yhteyksissä tällaiset tekoälypohjai- set sisällöt koetaan toimivammiksi ja palkitsevammiksi kuin ihmisten tekemät (ks. Berryman ym. 2021). Myös kaupallisesta näkökulmasta järjestelyn hyödyt ovat kiistat- tomat (Franke ym. 2023). Aiemmin tässä artikkelissa mainitut huomiot prinsessa Catherinen mediaesiinty- misten joko tahallisista tai tahattomista tekoäly-yhteyksistä ovat hyvä esimerkki uu- denlaisesta sosiaalisen median logiikasta, jossa näkyvyys ei ole ainoastaan julkisuu- den henkilöiden (tai heitä kuvaavien paparazzien) käsissä, vaan myös tiktokkaajilla on tilanteessa uudenlaista valtaa tekoälytyökalujen myötä. He voivat esimerkiksi luoda kiinnostavaksi kokemastaan mutta yksityisyyttään varjelevasta julkkiksesta syvävää- rennösvideoita, joita jaellaan julkkiksen nimiin perustetulla tilillä – eikä kukaan voi kovin helposti päätellä, että kyse ei ole julkkiksen itsensä tuottamasta sisällöstä. Huo- mion kohdistumisen kannalta on myös tärkeää, että tällaisia videoita jaetaan ja osal- listutaan näin aiheesta käytävään keskusteluun. Tekoälypohjainen sisällöntuotanto eli syväväärennökset ovat tehosteisiin keskittyvässä tarkastelussani neljäs kategoria, jonka avulla havainnollistan sitä, miten perusteellisesti mediatuotannon ja -käytön Media & viestintä 48 (1), 2025: 59–86. https://doi.org/10.23983/mv.149489 MEDIA & VIESTINTÄ 1/2025 74 tavat ovat tällä hetkellä murroksessa. Yksi hiljattain mediahuomion kohteeksi noussut esimerkki27 syväväärennöksestä on torjuvasti somenäkyvyyteen suhtautuvan näytte- lijä Tom Cruisen nimissä helmikuussa 2021 perustettu TikTok-tili @deeptomcruise (ks. Kuva 4). Sen taustalla vaikuttava belgialainen VFX-taiteilija Chris Umé on haastatte- luissa kertonut tilillä julkaistujen kokeellisten videoiden nojaavan paitsi sofistikoitu- neisiin tekoälytyökaluihin myös läheiseen yhteistyöhön Cruiseen erikoistuneen imi- taattorin Miles Fisherin kanssa.28 Fisher puolestaan on avannut julkisuudessa syvävää- rennösvideoiden toteuttamista painottaen niiden edellyttämää asiantuntemusta ja työmäärää sekä TikTok-ympäristön niille asettamia vaatimuksia.29 Kuva 4. Synteettinen Tom Cruise osallistuu Metaphysic.ai:n videolla (26.12.2022) pari vuotta sitten TikTokissa trendanneeseen, Wednesday-suoratoistosarjasta alkunsa saaneeseen Dance with my hands -tanssihaasteeseen. (Kuvakaappaukset kirjoittajan, kuvista poistettu puhelimen tunnistetietoja.) Vaikka syväväärennöksiin perustuva sisällöntuotanto jatkuvasti laajenevine levi- tysalustoineen voi vaikuttaa helpolta tieltä maineeseen – etenkin kun deepfake- teknologian sanotaan olevan yllättävän helppokäyttöistä ja saavutettavaa (Broinowski ja Martin 2024, 4–5; Jacobsen ja Simpson 2024, 1097–1098) – todellisuudessa uskotta- vien ja mielenkiintoisten tekoälyllä toteutettujen videoiden levitys TikTokin tapaisilla alustoilla ei aina ole yksinkertaista. Suosion takeena eivät välttämättä ole kuvan tai äänen laadukkuus ja uskottavuus, vaan esimerkiksi videoiden herättämät mielleyhty- mät, niissä käsitellyt asiat tai niiden tuottamat intertekstuaaliset viittaukset.30 Kun Media & viestintä 48 (1), 2025: 59–86. https://doi.org/10.23983/mv.149489 MEDIA & VIESTINTÄ 1/2025 75 tekoälypohjaiseen luomiseen käytettävä teknologia on tullut laajemmin saataville, huomion painopiste on siirtynyt sisältöjen alkuperästä niiden käyttötarkoituksiin ja toimivuuteen eri konteksteissa (ks. Nguyen ym. 2022). Uudenlainen kiinnostava kysy- mys on esimerkiksi kasvoja muokkaavien tehosteiden käyttö taiteen (Herrington 2022) ja tarinankerronnan näkökulmasta.31 Poliittisen ja yhteiskunnallisen vaikuttamisen nä- kökulmasta syväväärennösten levittäminen voi pintatasolla näyttää palkitsevalta, mutta varsinaisten informaatiohäiriöiden kontekstissa monien osatekijöiden ajoituk- sesta algoritmisiin trendeihin pitäisi osua kohdilleen, jotta syväväärennöksillä olisi ai- dosti vaikutusvaltaa. Syväväärennöksillä on kiistämättä attraktioarvoa, mutta epäselväksi jää, mikä nii- den symbolinen tai kulttuurinen merkitys lopulta on. Alun ihastelun jälkeen esimer- kiksi virtuaalisen Tom Cruisen kohdalla käyttäjälle saattaa nousta huoli mallinnettu- jen yksilöiden oikeuksista kehollisuuteensa ja ääneensä. Vielä akuutimpi kysymys kos- kee aktiivisten poliitikkojen tai muiden yhteiskunnallisten vaikuttajien simuloimista syväväärennöstekniikalla. Vastaavista näkökohdista käydään keskustelua myös teko- älyllä tuotettujen videoiden, mainosten ja jopa televisio- ja elokuvasisältöjen koh- dalla.32 Toisaalta samaa teknologiaa voidaan käyttää taiteen ja kulttuuriteollisuuden tuotteiden uudenlaiseen kehittämiseen: syväväärennösten avulla voidaan tuottaa elokuvia, joissa näyttelijät esittävät itseään nuorempaa tai vanhempaa hahmoa tai joissa jo edesmennyt näyttelijä tuodaan digitaalisena versiona takaisin valkokan- kaalle.33 Virtuaalinen Cruise toimiikin yllättäen oivallisena esimerkkinä tällaisesta siirty- mästä: julkisista tiedoista käy ilmi, että Umé ja Fisher eivät tiettävästi koskaan moneti- soineet @deeptomcruise -tiliään, mutta sen sijaan he perustivat TikTok-menestyksen siivittämänä deepfake-teknologiaan perustuvan Metaphysic-yrityksen.34 Metaphysicin verkkosivulta selviää, että yritys on tällä hetkellä tekoälypohjaisen audiovisuaalisen tuotannon edelläkävijöitä ja se on kasvanut ”parodiavideoiden” (eli oletettavasti juuri TikTokissa julkaistun tuotannon) tasolta yli sata ammattilaista työllistäväksi suurten Hollywood-tuotantojen tekijäksi.35 Pari vuotta sitten kysymykset tilin ylläpitäjien kau- pallis-ideologisista tarkoitusperistä saattoivat jäädä vaivaamaan, mutta nyt yritystoi- minnan konteksti on murtautunut ulos TikTokista ja sen tavoitteet ovat sujahtaneet vaivatta osaksi elokuvateollisuuden ”business as usual” -strategiaa. Siinä missä teko- älyllä tuotetut audiovisuaaliset sisällöt ovat osa valtavirtaelokuvan tulevaisuutta, ei ole lainkaan mahdotonta, että deepfake-Cruise jatkaa vielä pitkään hämmentävää vir- tuaalista elämäänsä TikTokin syvyyksissä. Media & viestintä 48 (1), 2025: 59–86. https://doi.org/10.23983/mv.149489 MEDIA & VIESTINTÄ 1/2025 76 Lopuksi TikTok on alusta, jolla yksilölliset identiteetit ja sosiaaliset verkostot ovat toissijaisia, mutta jolla tehokkaasti kiertävä sisältö rakentuu kiinnostavien henkilöperformans- sien ja suoran vuorovaikutuksen varaan (Cheng ja Li 2024; Darvin 2022). Alustan kes- keinen logiikka perustuu memeettisyyteen (Zulli ja Zulli 2022), ja memeettisyyden yti- messä ovat algoritmiset trendit, joiden harjalle yltääkseen yksittäisen tiktokkaajan täytyy oletusarvoisesti nojata tekoälyn apuun. Koneoppimisen varaan rakentuvat te- hosteet eivät ole vain yksittäisiä työkaluja, vaan kuten olen tässä artikkelissa esittä- nyt, ne voidaan jakaa eri tavoin ihmisen esiintymistä muokkaaviin toiminnallisuuksiin. Olen tässä yhteydessä keskittynyt videosisällön käsittelyyn tehosteiden näkökulmasta neljän kategorian kautta: näkyviin suodattimiin (Bold Glamour), näkymättömiksi jää- viin sisäänrakennettuihin alustatyökaluihin (esim. Beauty Mode), CapCut-videoedito- rin muokkaustyökaluihin, joiden avulla videosisältöä asemoidaan algoritmisesti alus- talle sopivampaan muotoon, sekä sisäänrakennetun ja ulkoisen teknologian avulla tuotettuun syväväärennössisältöön (deepfake). Kukin näistä kategorioista liittyy kei- noihin, joiden kautta uskottavien ja inhimillisten representaatioiden ja simulaatioiden jakaminen tulee mahdolliseksi laajemminkin kuin vain TikTok-alustalla. Argumenttini on, että vaikka paljon tutkittujen deepfake-videoiden kautta on helppo nähdä infor- maatioympäristömme epävakauden lisääntyminen, yhtä lailla ”näkymättömien” te- hosteiden arkipäiväistyminen vaikuttaa informaatiohäiriöiden yleistymiseen. Tehosteiden käytön ja niiden avulla muokattujen sisältöjen tarkastelu informaa- tiohäiriöinä on vaativaa, mutta sen avulla on mahdollista ymmärtää informaatioym- päristön muutoksia. Analyysini perusteella tehosteet muuttavat TikTok-videoita, ja niiden myötä myös kuvan ja äänen todistusvoimaisuutta merkittävillä tavoilla. Mo- nissa filttereitä käsittelevissä lehtijutuissa kauhistellaan niiden antamaa valtaa muut- taa esiintyjän olemusta. TikTok-alustaa kohtaan tunnetaan epäluuloa, ja kasvoja muo- vaavia filttereitä kohtaan voidaan lietsoa jopa irrationaalista pelkoa.36 Vaikuttaa siltä, että jopa tähän algoritmisesti ja tekoälyn avulla ohjattuun alustaan kohdistuu julki- sessa keskustelussa odotuksia aitoudesta ja muokkaamattomuudesta. Benjamin Jacobsen ja Jill Simpson (2024, 1096) toteavat, että tekoälyn avulla luodut kuvat ja vi- deot ylläpitävät kaikille visuaalisille representaatioille ominaisia jännitteitä: valoku- van ja elokuvan kaltaisten koneistojen nähdään tuottavan maailmasta objektiivisia ja totuudenmukaisia kuvauksia, vaikka samaan aikaan tiedämme hyvin, että ne eivät voi koskaan tallentaa maailmaa sellaisena kuin se on olemassa. Tästä ristiriitaisuudesta periytyy jotain myös kuvia ja audiovisuaalisia sisältöjä tuottavan tekoälyn ylle. Teko- älyn ei ajatella kykenevän luovuuteen (ks. De Vries 2020), mutta samaan aikaan sen tuottamien kuvien autenttisuus ja todistusvoimaisuus suhteessa inhimilliseen todel- lisuuteen näyttäytyvät haasteina, ja tekoälyn tuottamia tai muokkaamia kuvia suhteu- tetaan edelleen fotorealismin tai naturalismin ideaaleihin. Ehkäpä juuri tästä syystä Media & viestintä 48 (1), 2025: 59–86. https://doi.org/10.23983/mv.149489 MEDIA & VIESTINTÄ 1/2025 77 tehosteiden kautta avautuva tarkastelu tekoälyn ja inhimillisen älyn vuorovaikutuk- seen tuo entistäkin ajankohtaisempana esiin vanhan kysymyksen: Mikä on se paikka, josta käsin kone luo kuvan ihmisten maailmasta? ”Koneen paikan” määrittämisessä on turvauduttava kontekstin ja metadatan kal- taisten tietojen tarkasteluun. TikTokin algoritmisesti edellyttämiä tehosteita ei olisi, jos itse alusta ei olisi niin suosittu kuin se on ja jos sillä julkaistavat videot koostuisivat pääosin jostain muusta kuin puhuvista ja elehtivistä ihmiskasvoista. Koska kasvojen oletetaan näyttävän hyviltä, on oletettavaa, että tekoälyn mahdollistamia työkaluja kehitetään edelleenkin niiden ulkonäön paranteluun. Alustan kehittäjien näkökul- masta kauneuden optimointi näyttäytyy itsestään selvänä tavoitteena, mistä kertoo sisäänrakennettujen muokkaustyökalujen oletusasetus ”aina päällä”. Lopputuloksena nähdään, että erilaiset ulkonäköä parantelevat tehosteet eivät ainoastaan muuta ku- vassa näkyvää pintaa vaan ne myös asettavat uudenlaiset edellytykset tiktokkaajan näkyvyydelle ja toimijuudelle. Tämän toimijuuden osana perinteiset identiteettiteki- jät, kuten ikä ja sukupuoli, määrittyvät yhtä lailla tekoälyn ohjaamina uusin tavoin. Tekoälytyökalujen ja -toiminnallisuuksien käyttö ratkaisee osaltaan tuotetun vide- osisällön toimivuutta ja tavoittavuutta niin TikTokissa kuin sen ulkopuolella. Tarkas- teluni osoittaa, miten pienillä ja arkisilla keinoilla sosiaalisen median toimijuus alkaa muuntua tekoälyn ohjaamaksi, ja miten moninaisilla ja kompleksisilla tavoilla itse it- sestä otetut kuvat liukuvat näissä prosesseissa alustatalouden ja informaatiokierron välineiksi. Siinä missä kuvittelemme ehkä itse tallentavamme luovasti autenttista ar- kielämää kaikkialla mukana kulkevan mobiililaitteen avulla, somealustat kuten TikTok analysoivat raakamateriaalimme ja paketoivat julkaisumme tekoälyn avulla muille su- lavaan muotoon. Vähitellen tekoälyavusteisesta sisällöntuotannosta tulee normi, jota ilman kenelläkään ei ole enää asiaa sosiaalisen median vaikuttavimmille areenoille. Olen tässä artikkelissa keskittynyt tietoisesti arkisiin ja viihteellisiin esimerkkeihin, mutta tarkastelun kohteeksi voitaisiin hyvin ottaa myös poliittiset ja yhteiskunnalli- sesti vaikutusvaltaiset sisällöt, jotka saattavat tulla yllättävistäkin suunnista. Ehkäpä tulevaisuuden ihanne-esiintyjä tosiaankin on synteettinen ihminen, virtuaalinen vai- kuttaja, jonka ominaisuudet voidaan helposti optimoida vastaamaan kulloisiakin trendejä – tällöin esiintymisen todenperäisyydestä ei tarvinne enää keskustella. Tois- taiseksi olemme kuitenkin vielä tilanteessa, jossa todellisten ihmisten somenäky- vyyttä muokataan tekoälyn avulla, ja joudumme pohtimaan sitä, missä kohtaa näissä muokkauksissa kulkee informaation välittämisen ja vääristelyn – todenmukaisen tie- don ja informaatiohäiriön – välinen raja. Siinä missä tarkastelemani tehosteet voivat lisätä yksittäisten esiintyjien viehättävyyttä ja hyväksyttävyyttä sekä videosisältöjen tehokasta leviämistä, niiden laajamittainen käyttö merkitsee kulttuurin ja yhteiskun- nan tasolla systeemisesti kasvavaa tekoälyriippuvuutta ja epävakaistuvaa informaa- tioympäristöä myös tulevaisuudessa. Media & viestintä 48 (1), 2025: 59–86. https://doi.org/10.23983/mv.149489 MEDIA & VIESTINTÄ 1/2025 78 Kiitokset ja rahoitus Artikkeli on toteutettu osana Suomen Akatemian rahoittamaa hanketta Tekoälyn ja ihmisen vuorovaikutuksen monitahoiset heijastusvaikutukset ja rajoitukset työssä, liiketoiminnassa ja yhteiskunnassa (SYNTHETICA), 2024–2026. Kirjallisuus Abidin, Crystal. 2016. ”’Aren’t these just young, rich women doing vain things online?’: Influencer selfies as subversive frivolity.” Social media + society 2 (2). https://doi.org/10.1177/2056305116641342 Adami, Marina. 2024. ”Most AI avatars look female, young and attractive. Are they a passing trend or here to stay?” Reuters Institute for the Study of Journalism blog 27.8.2024. Luettu 23.1.2025. https://reutersinstitute.politics.ox.ac.uk/news/most-ai-avatars-look-female- young-and-attractive-are-they-passing-trend-or-here-stay Ajder, Henry, Giorgio Patrini, Francesco Cavalli ja Laurence Cullen. 2019. The state of deepfakes: Landscape, threats, and impact. Deeptrace, 27. http://regmedia.co.uk/2019/10/08/deepfake_report.pdf Bayer, Judit, Natalija Bitiukova, Petra Bard, Judit Szakács, Alberto Alemanno ja Erik Uszkiewicz. 2019. Disinformation and propaganda–impact on the functioning of the rule of law in the EU and its Member States. European Parliament, LIBE Committee, Policy Department for Citizens’ Rights and Constitutional Affairs. https://papers.ssrn.com/sol3/Delivery.cfm?abstractid=3409279 Berryman, Rachel, Crystal Abidin ja Tama Leaver. 2021. ”A Topography of Virtual Influencers.” In The 22nd Annual Conference of the Association of Internet Researchers (AoIR 2021), October 13–16, Online. https://spir.aoir.org/ojs/index.php/spir/article/view/12145 Bonner, Jolie, Florian Mathis, Joseph O’Hagan ja Mark Mcgill. 2023. ”When Filters Escape the Smartphone: Exploring Acceptance and Concerns Regarding Augmented Expression of Social Identity for Everyday AR.” In 29th ACM Symposium on Virtual Reality Software and Technology (VRST 2023), October 09–11, 2023, Christchurch, New Zealand. https://doi.org/10.1145/3611659.3615707 Brauner, Philipp, Alexander Hick, Ralf Philipsen ja Martina Ziefle. 2023. ”What does the public think about artificial intelligence?—A criticality map to understand bias in the public perception of AI.” Frontiers Computer Science 5: 1113903. https://doi.org/10.3389/fcomp.2023.1113903 Broinowski, Anna ja Fiona R. Martin. 2024. ”Beyond the deepfake problem: Benefits, risks and regulation of generative AI screen technologies.” Media International Australia (online first), 1–17. https://doi.org/10.1177/1329878X241288034 Caldwell, Matthew, Jerone Andrews, Thomas Tanay ja Lewis Griffin. 2020. ”AI-enabled future crime.” Crime Science 9: article 14. https://doi.org/10.1186/s40163-020-00123-8 Cheng, Zicheng ja Yanlin Li. 2024. ”Like, Comment, and Share on TikTok: Exploring the Effect of Sentiment and Second-Person View on the User Engagement with TikTok News Videos.” Social Science Computer Review 42 (1): 201–223. https://doi.org/10.1177/08944393231178603 Collie, Natalie ja Caroline Wilson-Barnao. 2020. ”Playing with TikTok: Algorithmic culture and the future of creative work.” Teoksessa The future of creative work. Creativity and digital disruption, toimittanut Greg Hearn, 172–188. London: Edward Elgar. Darvin, Ron. 2022. ”Design, resistance and the performance of identity on TikTok.” Discourse, Context & Media 46: 100591. https://doi.org/10.1016/j.dcm.2022.100591 Media & viestintä 48 (1), 2025: 59–86. https://doi.org/10.23983/mv.149489 MEDIA & VIESTINTÄ 1/2025 79 Davis, Jason P. 2019. ”The TikTok Strategy: Using AI Platforms to Take Over the World.” Insead Knowledge 19.6.2019. https://knowledge.insead.edu/entrepreneurship/tiktok-strategy- using-ai-platforms-take-over-world De Vries, Katja. 2020. ”You never fake alone: Creative AI in action.” Information, Communication & Society 23 (14): 2110–2127. https://doi.org/10.1080/1369118X.2020.1754877 Dijkslag, Imke R., Leo Block Santos, Gabrielle Irene ja Paul E. Ketelaar. 2024. ”To beautify or uglify! The effects of augmented reality face filters on body satisfaction moderated by self- esteem and self-identification.” Computers in Human Behavior 159: issue C. https://dl.acm.org/doi/10.1016/j.chb.2024.108343 Drenten, Jenna ja Gillian Brooks. 2020. ”Celebrity 2.0: Lil Miquela and the rise of a virtual star system.” Feminist Media Studies 20 (8): 1319–1323. https://doi.org/10.1080/14680777.2020.1830927 Duffy, Brooke Erin ja Elizabeth Wissinger. 2017. ”Mythologies of Creative Work in the Social Media Age: Fun, Free, and ‘Just Being Me’.” International Journal of Communication 11 (20): 4652–4671. https://ijoc.org/index.php/ijoc/article/view/7322/2185 Eugeni, Ruggero. 2022. ”Augmented reality filters and the faces as brands: Personal identities and marketing strategies in the age of algorithmic images.” Teoksessa Proceedings of the 14th International Conference on Human-Computer Interaction, part II, toimittanut Gabriele Meiselwitz, 223–234. Cham: Springer. https://publicatt.unicatt.it/bitstream/10807/212966/1/2022_Eugeni_augmented_reality_filt ers_and_the_faces_as_brands_article_2022_def.pdf Eugeni, Ruggero. 2024. ”A Scanner darkly: Augmented reality face filters as algorithmic images.” Visual Communication 23 (3): 498–512. https://doi.org/10.1177/14703572241235286 Feldkamp, Jana. 2021. ”The Rise of TikTok: The Evolution of a Social Media Platform During COVID-19.” Teoksessa Digital Responses to Covid-19, toimittaneet Christian Hovestadt, Jan Recker, Janek Richter ja Karl Werder, 73–85. SpringerBriefs in Information Systems. Cham: Springer. https://doi.org/10.1007/978-3-030-66611-8_6 Franke, Claudia, Andrea Groeppel-Klein ja Katrin Müller. 2023. ”Consumers’ Responses to Virtual Influencers as Advertising Endorsers: Novel and Effective or Uncanny and Deceiving?” Journal of Advertising 52 (4): 523–539. https://doi.org/10.1080/00913367.2022.2154721 Goffman, Erving. 1990 [1959]. The Presentation of Self in Everyday Life. Dublin: Penguin. Goodfellow, Ian J., Jean Pouget-Abadie, Mehdi Mirza, Bing Xu, David Warde-Farley, Sherjil Ozair, Aaron Courville ja Yoshua Bengio. 2014. ”Generative Adversarial Networks.” ArXIv preprint 10.6.2014. https://doi.org/10.48550/arXiv.1406.2661 Groh, Matthew, Aruna Sankaranarayanan, Nikhil Singh, Dong Young Kim, Andrew Lippman ja Rosalind Picard. 2024. ”Human detection of political speech deepfakes across transcripts, audio, and video.” Nature Communications 15: article 7629. https://doi.org/10.1038/s41467- 024-51998-z Helmus, Todd C. 2022. ”Artificial Intelligence, Deepfakes, and Disinformation. A Primer.” RAND Corporation. https://www.jstor.org/stable/resrep42027 Hendrickx, Jonathan. 2023. ”From Newspapers to TikTok: Social Media Journalism as the Fourth Wave of News Production, Diffusion and Consumption.” Teoksessa Blurring Boundaries of Journalism in Digital Media: New Actors, Models and Practices, toimittaneet María-Cruz Negreira-Rey, Jorge Vázquez-Herrero, José Sixto-García ja Xosé López-García, 229–246. Cham: Springer. https://doi.org/10.1007/978-3-031-43926-1_16 Herring, Susan C., Meredith Dedema, Enrique Rodríguez ja Leo Yang. 2024. ”Strategic use of video face filter types: Influence of audience, gender, and culture.” New Media & Society (online first). https://doi.org/10.1177/14614448241230461 Media & viestintä 48 (1), 2025: 59–86. https://doi.org/10.23983/mv.149489 MEDIA & VIESTINTÄ 1/2025 80 Herrington, Jessica. 2022. ”Face Filters as Augmented Reality Art on Social Media. Teoksessa Augmented Reality Art, toimittanut Vladimir Geroimenko, 297–310. Springer Series on Cultural Computing. Cham: Springer. https://doi.org/10.1007/978-3-030-96863-2_16 Ibáñez-Sánchez, Sergio, Carlos Orús ja Carlos Flavián. 2022. ”Augmented reality filters on social media. Analyzing the drivers of playability based on uses and gratifications theory.” Psychology & Marketing 39 (3): 559–578. https://doi.org/10.1002/mar.21639 Ireton, Cherilyn ja Julie Posetti, toim. 2018. Journalism, fake news & disinformation: Handbook for journalism education and training. UNESCO series on journalism education. https://unesdoc.unesco.org/ark:/48223/pf0000265552 Jacobsen, Benjamin ja Jill Simpson. 2024. ”The tensions of deepfakes.” Information, Communication & Society 27 (6): 1095–1109. https://doi.org/10.1080/1369118X.2023.2234980 Javornik, Ana, Ben Marder, Jennifer Brannon Barhorst, Graeme McLean, Yvonne Rogers, Paul Marshall ja Luk Warlop. 2022. ”’What lies behind the filter?’ Uncovering the motivations for using augmented reality (AR) face filters on social media and their effect on well-being.” Computers in Human Behavior 128 (issue C): 107–126. https://doi.org/10.1016/j.chb.2021.107126 Kanwisher, Nancy. 2001. ”Faces and places: of central (and peripheral) interest.” Nature neuroscience 4 (5): 455–456. https://doi.org/10.1038/87399 Kapantai, Eleni, Androniki Christopoulou, Christos Berberidis ja Vassilios Peristeras. 2021. ”A systematic literature review on disinformation: Toward a unified taxonomical framework.” New Media & Society 23 (5): 1301–1326. https://doi.org/10.1177/1461444820959296 Kaye, D. Bondy Valdovinos, Jing Zeng ja Patrik Wikstrom. 2022. TikTok: Creativity and culture in short video. Hoboken, NJ: Wiley. Lim, Weng Marc. 2023. ”Fact or fake? The search for truth in an infodemic of disinformation, misinformation, and malinformation with deepfake and fake news.” Journal of Strategic Marketing 1–37. https://doi.org/10.1080/0965254X.2023.2253805 Maddocks, Sophie. 2020. ”‘A Deepfake Porn Plot Intended to Silence Me’: Exploring continuities between pornographic and ‘political’ deep fakes.” Porn Studies 7 (4): 415–423. https://doi.org/10.1080/23268743.2020.1757499 Mahetaji, Kaushar ja David B Nieborg. 2024a. ”TikTok as a Platform Tool: Surveying Disciplinary Perspectives on Platforms and Cultural Production.” Teoksessa Creative Tools and the Softwarization of Cultural Production, toimittaneet Frédérik Lesage ja Michael Terren, 23– 45. Cham: Springer Nature. Mahetaji, Kaushar ja David B. Nieborg. 2024b. ”Where My AI Apps At? A Historiographic Approach To Analyzing Platform Tools.” In the 25th Annual Conference of the Association of Internet Researchers (AoIR2024), Sheffield, UK. https://spir.aoir.org/ojs/index.php/spir/article/download/14017/11809 Mustak, Mekhail, Joni Salminen, Matti Mäntymäki, Arafat Rahman ja Yogesh K. Dwivedi. 2023. ”Deepfakes: Deceptions, mitigations, and opportunities.” Journal of Business Research 154: 113368. https://doi.org/10.1016/j.jbusres.2022.113368 Nguyen, Thanh Thi, Quoc Viet Hung Nguyen, Dung Tien Nguyen, Duc Thanh Nguyen, Thien Huynh-The, Saeid Nahavandi, Thanh Tam Nguyen, Quoc-Viet Pham ja Cuong M. Nguyen. 2022. ”Deep learning for deepfakes creation and detection: A survey.” Computer Vision and Image Understanding 223: 103525. https://doi.org/10.1016/j.cviu.2022.103525 Pawelec, Maria. 2022. ”Deepfakes and Democracy (Theory): How Synthetic Audio-Visual Media for Disinformation and Hate Speech Threaten Core Democratic Functions.” Digital Society 1: article 19. https://doi.org/10.1007/s44206-022-00010-6 Pendergrass, William. 2023. ”Artificial intelligence and its potential harm through the use of generative adversarial network image filters on TikTok.” Issues in Information Systems 24 (1): 113–127. https://doi.org/10.48009/1_iis_2023_110 Media & viestintä 48 (1), 2025: 59–86. https://doi.org/10.23983/mv.149489 MEDIA & VIESTINTÄ 1/2025 81 Pieters, Sanne, Suzanna J. Opree ja Esther Rozendaal. 2024. ”Surveillance and self-care: Performing beauty labor in online video content.” European Journal of Cultural Studies (online first). https://doi.org/10.1177/13675494241264982 Pilipets, Elena. 2023. ”Hashtagging, Duetting, Sound-linking: TikTok Gestures and Methods of (In)distinction.” MAST The Journal of Media Art Study and Theory 4 (1): 109–135. https://www.mast-journal.org/2023vol4no17 Riccio, Piera, Julien Colin, Shirley Ogolla ja Nuria Oliver. 2024. ”Mirror, Mirror on the Wall, Who Is the Whitest of All? Racial Biases in Social Media Beauty Filters.” Social Media + Society 10 (2). https://doi.org/10.1177/20563051241239295 Sihvonen, Tanja ja Kristine Ask. 2024. ”Merging Ludus and Mimesis: Playful Engagements with NPCs on TikTok.” Abstract Proceedings of DiGRA 2024 Conference: Playgrounds. https://dl.digra.org/index.php/dl/article/download/2260/2257 Sihvonen, Tanja ja Ville Manninen. 2024. ”TikTok-journalismi Suomessa.” Media & viestintä 47 (1): 47–70. https://doi.org/10.23983/mv.137083 Sillanpää, Antti. 2021. Informaatiovaikuttamisen torjunta. Esiselvitys. Helsinki: Huoltovarmuuskeskus. https://www.huoltovarmuuskeskus.fi/files/d601de13993e8873d2d66bf379c35f13309dc42a/h vk-informaatiovaikuttamisen-torjunta-esiselvitys.pdf Şot, İrem. 2022. ”Fostering intimacy on TikTok: a platform that ‘listens’ and ‘creates a safe space’.” Media, Culture & Society 44 (8): 1490–1507. https://doi.org/10.1177/01634437221104709 Swed, Ori, Sachith Dassanayaka ja Dimitri Volchenkov. 2024. ”Keeping it authentic: the social footprint of the trolls’ network.” Social Network Analysis and Mining 14: article 38. https://doi.org/10.1007/s13278-023-01161-1 Szambolics, Julia, Sonia Malos ja Delia Christina Balaban. 2023. ”Adolescents’ Augmented Reality Filter Usage on Social Media, Developmental Process, and Well-Being.” Media and Communication 11 (4): 129–139. https://doi.org/10.17645/mac.v11i4.7016 Thies, Justus, Michael Zollhöfer, Marc Stamminger, Christian Theobalt ja Matthias Nießner. 2018. ”Face2Face: Real-time face capture and reenactment of RGB videos.” Communications of the ACM 62 (1): 96–104. https://doi.org/10.1145/3292039 Todorov, Alexander, Manish Pakrashi ja Nikolaas N. Oosterhof. 2009. ”Evaluating faces on trustworthiness after minimal time exposure.” Social Cognition 27 (6): 813–833. https://doi.org/10.1521/soco.2009.27.6.813 Tucciarelli, Raffaele, Neza Vehar, Shamil Chandaria ja Manos Tsakiris. 2022. ”On the realness of people who do not exist: The social processing of artificial faces.” iScience 25 (12): 105441. https://doi.org/10.1016/j.isci.2022.105441 Vázquez-Herrero, Jorge, María-Cruz Negreira-Rey ja Xosé López-García. 2022. ”Let’s dance the news! How the news media are adapting to the logic of TikTok.” Journalism 23 (8): 1717–1735. https://doi.org/10.1177/1464884920969092 Wardle, Claire ja Hossein Derakhshan. 2017. Information Disorder. Toward an interdisciplinary framework for research and policymaking. Council of Europe report DGI (2017)09. https://edoc.coe.int/en/media/7495-information-disorder-toward-an-interdisciplinary- framework-for-research-and-policy-making.html Widholm, Andreas, Mattias Ekman ja Anders Olof Larsson. 2024. ”A Right-Wing Wave on TikTok? Ideological Orientations, Platform Features, and User Engagement During the Early 2022 Election Campaign in Sweden.” Social Media + Society 10 (3). https://doi.org/10.1177/20563051241269266 Yu, Peipeng, Zhihua Xia, Jianwei Fei ja Yujiang Lu. 2021. ”A Survey on Deepfake Video Detection.” IET Biometrics. https://doi.org/10.1049/bme2.12031 Media & viestintä 48 (1), 2025: 59–86. https://doi.org/10.23983/mv.149489 MEDIA & VIESTINTÄ 1/2025 82 Zulli, Diana ja David James Zulli. 2022. ”Extending the Internet meme: Conceptualizing technological mimesis and imitation publics on the TikTok platform.” New Media & Society 24 (8): 1872–1890. https://doi.org/10.1177/1461444820983603 Åberg, Erica, Iida Kukkonen, Outi Sarpila ja Tero Pajunen. 2019. Ulkonäköyhteiskunta. Ulkoinen olemus pääomana 2000-luvun Suomessa. Helsinki: Into. Media & viestintä 48 (1), 2025: 59–86. https://doi.org/10.23983/mv.149489 MEDIA & VIESTINTÄ 1/2025 83 Everyday Information Disorders or Creative Expression? Effective Video Content and Deepfakes on TikTok This article looks at artificial intelligence-based ‘effects’ and the audiovisual content they help to create on the video sharing platform TikTok. AI-generated content is often referred to as synthetic, but this study questions the distinction between real and artificial in this sense. The framework for the analysis is a discussion of the traditional attributes of images and video, such as authenticity and evidentiality, which AI-generated content is regarded to undermine. Visual and video-based ‘evidence’ has emerged as a source of information disorder with the advent of new social media platforms. TikTok is a particularly interesting platform for such analysis, as it relies explicitly on the creation, distribution, viewing, and commenting of imaginative audiovisual content. It also circulates a wealth of journalistic and political videos, as well as various kinds of influencing attempts. In addition, TikTok is notable for the effectiveness with which it has lowered the threshold for editing videos, using sound effects, and contributing to the development of filters. In addition to the ana- lysis of filters, add-ons, and editing tools, the article also discusses AI-generated imagery and videos (deepfakes) in frameworks such as authenticity and inauthenticity. KEYWORDS: artificial intelligence, effect, deepfake, audiovisuality, TikTok Kirjoittaja Tanja Sihvonen, FT, viestintätieteen professori, Vaasan yliopisto Tanja Sihvonen on median ja viestinnän tutkija, joka tarkastelee ihmisen ja median suhdetta muun muassa pelien, algoritmien, affektien ja bottien näkökulmasta. Tällä hetkellä hän tutkii TikTokia ja vetää Suomen Akatemian rahoittamaa, tekoälyn yhteiskunnallisiin heijastevaikutuksiin keskittyvää SYNTHETICA-hanketta. Loppuviitteet 1 TikTokin käyttäminen – videoiden luominen – tehosteet. TikTok-tuen internetsivu. Luettu 6.3.2025. https://support.tiktok.com/fi/using-tiktok/creating-videos/effects 2 Suomalaisille tutuilla kansallissymboleilla markkinoidaan äärioikeistolaista disinformaatiota, joka on tuotettu tekoälyllä. Yle 5.10.2024. Luettu 23.1.2025. https://yle.fi/a/74-20108979 3 @deeptomcruise. 2024. TikTok-tili. Luettu 20.10.2024. https://www.tiktok.com/@deeptomcruise 4 Worries Grow That TikTok Is New Home for Manipulated Video and Photos. The New York Times 4.11.2022. Luettu 20.10.2024. https://www.nytimes.com/2022/11/04/technology/tiktok- deepfakes-disinformation.html Media & viestintä 48 (1), 2025: 59–86. https://doi.org/10.23983/mv.149489 MEDIA & VIESTINTÄ 1/2025 84 5 Does the ‘Bold Glamour’ filter push unrealistic beauty standards? TikTokkers think so. NPR 10.3.2023. Luettu 23.1.2025. https://www.npr.org/2023/03/10/1162286785/does-the-bold- glamour-filter-push-unrealistic-beauty-standards-tiktokkers-think-; Here’s Why TikTok’s New ‘Bold Glamour’ Filter Is Causing Controversy. Cosmopolitan 5.3.2023. Luettu 20.10.2024. https://www.cosmopolitan.com/entertainment/celebs/a43203022/tiktok-bold-glamour-filter/; Why won't TikTok confirm the Bold Glamour filter is AI? The Verge 2.3.2023. Luettu 20.10.2024. https://www.theverge.com/2023/3/2/23621751/bold-glamour-tiktok-face-filter-beauty-ai-ar- body-dismorphia 6 #boldglamour. 2024. Hashtag. Linkki tarkistettu 9.10.2024. https://www.tiktok.com/tag/boldglamour 7 Bold Glamour. 2025. Luettu 23.1.2025. https://www.tiktok.com/sticker/Bold-Glamour-14519854 8 @blindkidd. 2023. TikTok-video 9.3.2023. Katsottu 20.10.2024. https://www.tiktok.com/@blindkidd/video/7208303163324009755 9 @princessblossom.mum. 2023. TikTok-video 26.2.2023. Katsottu 20.10.2024. https://www.tiktok.com/@princessblossom.mum/video/7204435330911587586 10 Esim. The Ugly side to TikTok’s Bold Glamour filter. The Pull Agency Blog 11.4.2023. Luettu 20.10.2024. https://www.thepullagency.com/blog/the-ugly-side-to-tiktok-s-bold-glamour- filter; Beauty brand Dove is speaking out against the toxic TikTok 'Bold Glamour' filter. Women’s Health 9.3.2023. Luettu 20.10.2024. https://www.womenshealthmag.com/uk/beauty/body/a43259141/tiktok-bold-glamour-filter/; How beauty filters like TikTok’s ‘bold glamour’ affect tweens using social media. The Conversation 14.4.2023. Luettu 20.10.2024. https://theconversation.com/how-beauty-filters- like-tiktoks-bold-glamour-affect-tweens-using-social-media-203383 11 Instagram. 16.5.2017. Introducing face filters & more on Instagram. Luettu 23.10.2024. https://about.instagram.com/blog/announcements/introducing-face-filters-and-more-on- instagram 12 New ‘bold glamour’ TikTok filter blasted as ‘psychological warfare and pure evil’. FOX News 28.2.2023. Luettu 23.1.2025. https://www.foxnews.com/media/new-bold-glamour-tiktok-filter- blasted-psychological-warfare-pure-evil 13 TikTokin taustayhtiö ByteDance ei ole virallisesti vahvistanut, että ko. tehosteet perustuvat GAN-teknologiaan. Tämä käsitys on muodostettu useiden tekoälytutkijoiden julkisuudessa esittämien näkemysten ja TikTokissa tehtyjen analyysien perusteella. Ks. esim. TikTok Bold Glamour Filter – Unrealistic Reality and Risks. Banuba Blog 17.7.2023. Luettu 23.1.2025. https://www.banuba.com/blog/tiktok-bold-glamour-filter-unrealistic-reality-and-risks; Lal, Kish 2023. AI TikTok filters are causing errors in our brains. Dazed 26.6.2023. Luettu 6.3.2025. https://www.dazeddigital.com/beauty/article/59735/1/ai-machine-learning-tiktok-filters-gan- technology-bold-glamour; @luke.hurd. 2023. ”How does bold glamour work compared to traditional filters? Here’s a deep explanation!” TikTok-video 28.2.2023. Katsottu 6.3.2025. https://www.tiktok.com/@luke.hurd/video/7205286601298087214; TikTokissa on myös esim. kategoria ”Gan beauty filter”, katsottu 3.3.2025. https://www.tiktok.com/discover/gan-beauty- filter 14 TikTok Bold Glamour Filter – Unrealistic Reality and Risks. Banuba Blog 17.7.2023. Luettu 23.1.2025. https://www.banuba.com/blog/tiktok-bold-glamour-filter-unrealistic-reality-and- risks 15 Ks. @luke.hurd. 2023. ”How does bold glamour work compared to traditional filters? Here’s a deep explanation!” TikTok-video 28.2.2023. Katsottu 6.3.2025. https://www.tiktok.com/@luke.hurd/video/7205286601298087214 16 Ks. @verge. 2023. ”Why won’t TikTok confirm the Bold Glamour filter is AI?” TikTok-video 2.3.2023. Katsottu 21.10.2024. https://www.tiktok.com/@verge/video/7206033454910197038 Media & viestintä 48 (1), 2025: 59–86. https://doi.org/10.23983/mv.149489 MEDIA & VIESTINTÄ 1/2025 85 17 Esim. @iamshopgirl. 2024. ”#whereisKate i think ive solved it!! My opinions about the House of Windsor.” TikTok-video 14.3.2024. Katsottu 21.10.2024. https://www.tiktok.com/@iamshopgirl/video/7346005514158918954; @matta_of_fact. 2024. ”People across the internet are asking ‘Where is Kate?’.” TikTok-video 28.2.2024. Katsottu 21.10.2024. https://www.tiktok.com/@matta_of_fact/video/7340703021321538858 18 The Prince and Princess of Wales. 2024. ”A message from Catherine, The Princess of Wales.” YouTube -video 22.3.2024. Katsottu 21.10.2024. https://youtu.be/A_jE1j_KOZk?si=V_njXiBsJkymEDPD 19 Esim. @thisninjanerd. 2024. ”frame by frame, part 1 - some reasons why the newest #katemiddleton video looks to be #ai-generated.” TikTok-video 24.3.2024. Katsottu 21.10.2024. https://www.tiktok.com/@thisninjanerd/video/7349935492068068638 20 Experts: Spy used AI-generated face to connect with targets. AP News 13.6.2019. https://apnews.com/article/ap-top-news-artificial-intelligence-social-platforms-think-tanks- politics-bc2f19097a4c4fffaa00de6770b8a60d 21 This Person Does Not Exist. 2024. Taideprojekti internetissä. https://thispersondoesnotexist.com/ 22 Deepfakes: faces created by AI now look more real than genuine photos. Reaction 24.1.2023. Luettu 20.10.2024. https://reaction.life/deepfakes-faces-created-by-ai-now-look-more-real- than-genuine-photos/ 23 Ks. edellinen. 24 Suomalaisille tutuilla kansallissymboleilla markkinoidaan äärioikeistolaista disinformaatiota, joka on tuotettu tekoälyllä. Yle 5.10.2024. Luettu 23.1.2025. https://yle.fi/a/74- 20108979; Deepfakes, explained.” MIT Sloan School 21.7.2020. Luettu 20.10.2024. https://mitsloan.mit.edu/ideas-made-to-matter/deepfakes-explained 25 Diep Nep. 2021. ”This is not Morgan Freeman – A Deepfake Singularity.” YouTube video 7.7.2021. Katsottu 21.10.2024. https://youtu.be/oxXpB9pSETo?si=V3s_IwycIJTiEHJ0 26 Esim. Bloomberg Originals. 2018. ”It’s Getting Harder to Spot a Deep Fake Video.” YouTube video 27.9.2018. Katsottu 21.10.2024. https://youtu.be/gLoI9hAX9dw?si=M7ujJ8U9csjrYUjI; Suomalaisille tutuilla kansallissymboleilla markkinoidaan äärioikeistolaista disinformaatiota, joka on tuotettu tekoälyllä. Yle 5.10.2024. Luettu 23.1.2025. https://yle.fi/a/74-20108979; Worries Grow That TikTok Is New Home for Manipulated Video and Photos. The New York Times 4.11.2022. Luettu 20.10.2024. https://www.nytimes.com/2022/11/04/technology/tiktok- deepfakes-disinformation.html; The Wall Street Journal. 2023. ”I Challenged My AI Clone to Replace Me for 24 Hours | WSJ. Tech Things with Joanna Stern.” YouTube-video 28.4.2023. Katsottu 21.10.2024. https://youtu.be/t52Bi-ZUZjA?si=R9p6_fez-NrXlk1T 27 This TikTok Tom Cruise impersonator is using deepfake tech to impressive ends. The Verge 27.2.2021. Luettu 20.10.2024. https://www.theverge.com/22303756/tiktok-tom-cruise- impersonator-deepfake; Shockingly Real Tom Cruise Deepfakes Are Invading TikTok. The Daily Beast 25.2.2021. Luettu 20.10.2024. https://www.thedailybeast.com/shockingly-real-tom-cruise- deepfakes-are-invading-tiktok/; Stump, Scott. 2021. Man behind viral Tom Cruise deepfake videos calls the technology ‘morally neutral’. Today 28.12.2021. Luettu 20.10.2024. https://www.today.com/news/man-tom-cruise-deepfakes-tiktok-speaks-ethics-technology- rcna10163; Tom Cruise deepfake creator says public shouldn’t be worried about ‘one-click fakes’. The Verge 5.3.2021. Luettu 23.1.2025. https://www.theverge.com/2021/3/5/22314980/tom-cruise-deepfake-tiktok-videos-ai- impersonator-chris-ume-miles-fisher Media & viestintä 48 (1), 2025: 59–86. https://doi.org/10.23983/mv.149489 MEDIA & VIESTINTÄ 1/2025 86 28 Tom Cruise deepfake creator says public shouldn’t be worried about ‘one-click fakes’. The Verge 5.3.2021. Luettu 23.1.2025. https://www.theverge.com/2021/3/5/22314980/tom-cruise- deepfake-tiktok-videos-ai-impersonator-chris-ume-miles-fisher; ks. myös Man behind viral Tom Cruise deepfake videos calls the technology ‘morally neutral’. Today 28.12.2021. Luettu 20.10.2024. https://www.today.com/news/man-tom-cruise-deepfakes-tiktok-speaks-ethics- technology-rcna10163 29 Fisher, Miles. 2022. How I Became the Fake Tom Cruise. The Hollywood Reporter 21.7.2022. Luettu 6.3.2025. https://www.hollywoodreporter.com/feature/deepfake-tom-cruise-miles- fisher-1235182932/ 30 Hormillada, Hannah. 2024. Math lessons from deepfakes of Drake, other celebrities on TikTok raise concerns about misinformation. CBC News 1.4.2024. Luettu 6.3.2025. https://www.cbc.ca/news/canada/ai-deepfake-tiktok-1.7157571 31 From old and crispy to bold glamour – TikTok filters are helping us tell stories online. The Conversation 30.8.2023. Luettu 20.10.2024. https://theconversation.com/from-old-and-crispy- to-bold-glamour-tiktok-filters-are-helping-us-tell-stories-online-211908 32 AI Video Generators Are Nearing a Crucial Tipping Point. Wired 6.4.2023. Luettu 23.1.2025. https://www.wired.com/story/ai-video-generators-are-nearing-a-crucial-tipping-point/ 33 The Terrifying truth about the evolution of deep fakes. Slash Gear 29.9.2022. Luettu 20.10.2024. https://www.slashgear.com/1031937/the-terrifying-truth-about-the-evolution-of- deep-fakes/ 34 Man behind viral Tom Cruise deepfake videos calls the technology ‘morally neutral’. Today 28.12.2021. Luettu 20.10.2024. https://www.today.com/news/man-tom-cruise-deepfakes-tiktok- speaks-ethics-technology-rcna10163 35 Metaphysic.ai. 2024. https://metaphysic.ai/our-story/ 36 Esim. New ‘bold glamour’ TikTok filter blasted as ‘psychological warfare and pure evil’. FOX News 28.2.2023. Luettu 23.1.2025. https://www.foxnews.com/media/new-bold-glamour-tiktok- filter-blasted-psychological-warfare-pure-evil