Kuva luotu käyttämällä Stable Diffusion -mallia kehotteella ”New Yorker magazine cover (drawing):  An abstract illustration of a hand holding a magnifying glass, with data points and symbols in the background. The image represents the theme of responsible data usage, with the magnifying glass suggesting careful and thoughtful examination of information. Was this response better or worse. Hyper Detail, Expressive dark matte gouache painting. –ar 4:5”

Miten hyödyntää dataa vastuullisesti?

  • Vältä datan keräämistä ilman selkeää päämäärää. Perusta se organisaation tavoitteisiin ja päämääriin.
  • Analysoi dataa myös eksploratiivisesti ilman etukäteen määriteltyä mittaria tai tavoitetta.
  • Luo datan käytön suhteen avoin ja läpinäkyvä organisaatio, jotta kävijät ymmärtävät, miten heidän dataansa käytetään.
  • Muista dataan liittyvät riskit! Datan käyttö algoritmien ja tekoälysovellusten kouluttamiseen kannattaa suunnitella huolella.
  • Kerro asiakkaalle miten hänen dataansa käytetään ja miksi.
  • Rakenna asiakkaalle tunne hänen omien tietojensa hallinnasta, jotta säilytät luottamuksen parhaalla mahdollisella tavalla.

Datan kerääminen ilman selkeää päämäärää on paitsi turhaa, myös nykyisen tietosuojalainsäädännön näkökulmasta kyseenalaista. Pääosa kerättävistä tietotyypeistä tulisi pystyä yhdistämään johonkin organisaation mittaustarpeeseen. Toisaalta on kuitenkin tärkeää pystyä analysoimaan dataa myös eksploratiivisesti vailla etukäteen määriteltyä mittaria tai tavoitetta.

Sanna Laurell:jos miettii ihan puhtaasti digitaalisten medioiden käytettävyyttä ja sitä mikä käyttökokemus on, niin pitäisi enemmän kysyä siitä asiakkailta. Me kysytään liian vähän ja tehdään liikaa omiin oletuksiin perustuvia päätelmiä. Meillä on hirveän paljon dataa, jota me käytetään, mutta sen lisäksi pitäisi saada siihen rinnalle kvalitatiivisempaa insightia, ja sitä me ainakin tehdään ihan liian vähän.

Mediayhtiöt tietävät, että ihmiset ovat tulleet koko ajan tietoisemmiksi ja epäluuloisemmiksi heistä kerätyn datan suhteen. Siksi niiden pitäisi olla avoimia sen suhteen mitä dataa ne keräävät ja mihin sitä käytetään. Kevin Anderson kuvaa asiaa näin. 

Kevin Anderson: So I think that the organization needs to be really transparent and clear about how they’re going to use that data, and there are some media organizations that quite honestly… They use registration systems, and part of their business model is to sell on that data, and so if you are the product, so to speak, if you’re the thing being sold, because you’re selling on your data, then that person really needs to understand how that data is used, so I think there has to be a certain level of transparency, and I would honestly say that that level of transparency is probably never going to be achieved without a little bit of regulation.

Kevin Anderson: I think the trends are quite clear though, that people have become more careful about their data, especially younger audiences, and so it’s one of the things that’s motivating Google and Apple to clamp down. Obviously there are some market reasons for them to do that in terms of the data that’s collected on their platforms, but I think that they’re responding to a reasonable consumer demand for more privacy.

Mittareiden lisäksi dataa hyödynnetään kasvavassa määrin algoritmien ja tekoälysovellusten kouluttamiseen. EU on ottanut etukenon näiden sovellusten reguloinnissa ja valmistelee parhaillaan lakiesitystä aiheesta. Suurin osa esityksen regulointivaatimuksista koskee vain korkeariskisiä sovelluksia, jotka liittyvät lähinnä biometristen tietojen käyttöön, mutta esitys pyrkii myös luomaan hyvät käytännöt koko alalle. Esityksen mukaan kaikkien sovellusten ja integroitujen palvelujen tulisi noudattaa perusoikeuksia kuten sananvapautta ja lastenoikeuksia. Riskiä ja siten regulaation tarvetta nostavat sovellukset, joissa on manipulointimahdollisuus (syväväärennökset, deepfakes) ja kun tekoälysovellus on vuorovaikutuksessa ihmisten kanssa tai sillä tuotetaan tai manipuloidaan sisältöä. Tällaisista sovelluksista olisi esimerkiksi velvollisuus ilmoittaa loppukäyttäjälle selvästi. Media-alalla yleistyvät tekoälyn avulla tai sen kokonaan luomat artikkelit, muokatut tai generoidut kuvat sekä videot. On ehdotettu mm. vesileimoja ihmisen luoman sisällön merkitsemiseksi tai vastaavasti leimaa tekoälyn luoman sisältöön, jotta kuluttajat ovat tietoisia tekotavoista. Haastavin loppukäyttäjäryhmä ovat lapset, joiden ymmärrys ei välttämättä riitä erottamaan tekoälyä tai sen merkitystä, vaikka se merkittäisiin ja heidän suojelemiseensa pitää siksi kiinnittää erityistä huomiota.

https://eur-lex.europa.eu/resource.html?uri=cellar:e0649735-a372-11eb-9585-01aa75ed71a1.0007.02/DOC_1&format=PDF


Kirjallisuus

Kun informaatio alkaa liikkua asiakkaan ja yrityksen välillä, on ehdottoman tärkeää, että asiakas tuntee hallitsevansa omia tietojaan. Yrityksen tulee mahdollistaa asiakkaalle hänen omien tietojensa käyttö hänen aikansa ja rahojensa säästämiseksi sekä lisäarvon tuomiseksi. Kaikki tämä täyttää asiakkaan odotukset luottamuksesta ja siihen, että yritys ansaitsee hänen elämänmittaisen uskollisuutensa. (Pepper & Rogers 83)