1. KETJU 2: Seuraavassa pääkohdat Euroopan parlamentin 5.10.2020 päivätystä mietinnöstä koskien tekoälyä koskevasta siviilioikeudellisen vastuun järjestelmästä ('asetus tekoälyjärjestelmien toimintaa koskevasta vastuusta').
2. Mietintö esiteltiin parlamentille 20.10.2020 ja aloite hyväksyttiin lähes yksimielisesti (626 ääntä puolesta). Mietintö löytyy suomenkielisenä kokonaisuudessaan täältä: europarl.europa.eu/doceo/document…
3. Taustaksi on hyvä mainita todetut vastuun käsitteen kaksi roolia: 1) tarjota vahingon kärsineelle oikeus vaatia korvausta, ja 2) toimia taloudellisena kannustimena toimijoille olla aiheuttamatta haittaa tai vahinkoa.
4. Lisäksi tärkeänä lähtökohtana todetaan, että tekoälyjärjestelmillä ei ole oikeushenkilöllisyyttä eikä tähän nähdä tarvetta. Asiaa ei kovin syvällisesti paperissa analysoida vaan todetaan, että lakimuutoksia valmistellessa asia on tehtävä selväksi.
5. Esitystä tulisi edistää yhtäaikaisesti tarkastellen tuotevastuudirektiiviin mahdollisesti tarvittavia muutoksia. Näistä mainitaan mm. tuotteen määritelmä, vahingon, puutteellisen turvallisuuden ja valmistajan käsitteiden uudelleenmäärittely, ja todistustaakan kääntäminen.
6. Menemättä tuotevastuudirektiiviin sen enempää mietinnössä todetaan, että 1) ehdotus asetukseksi ja 2) tuotevastuudirektiivi ovat tekoälyjärjestelmien yhteisen vastuukehyksen kaksi pilaria, ja edellyttävät tiivistä koordinointia ja yhdenmukaistamista.
7. Seuraavaksi keskityn itse asetustekstiin 'koskien luonnollisten henkilöiden ja oikeushenkilöiden tekoälyjärjestelmien operaattoreille esittämiä siviilioikeudellisia vahingonkorvausvaatimuksia koskevia sääntöjä'.
8. Soveltamisala: kun tekoälyjärjestelmän ohjaama toiminto, laite tai prosessi aiheuttaa luonnolliselle henkilölle henkeen, terveyteen ja fyysiseen koskemattomuuteen kohdistuvaa haittaa, tai luonnolliselle henkilölle tai oikeushenkilölle omaisuuteen kohdistuvaa haittaa, ...
9. ...taikka on aiheuttanut merkittävää aineetonta vahinkoa, jonka tuloksena on syntynyt todennettavissa olevaa taloudellista tappiota.
10. Seuraavaksi muutama erittäin keskeinen määritelmä: 'tekoäly', 'suuri riski', 'frontend-operaattori', 'backend-operaattori'.
11. 'Tekoälyjärjestelmä': ohjelmistopohjainen / laitteisiin upotettu järjestelmä, joka simuloi älykästä käyttäytymistä muun muassa keräämällä ja käsittelemällä tietoa, analysoiden ja tulkiten ympäristöään sekä toimien osittain autonomisesti tiettyjen tavoitteiden saavuttamiseksi.
12. 'Suuri riski': autonomisesti toimivan tekoälyjärjestelmän merkittävä potentiaali aiheuttaa haittaa tai vahinkoa yhdelle tai useammalle henkilölle tavalla, joka on sattumanvarainen ja joka ylittää sen, mitä voidaan kohtuudella odottaa.
13. Em. potentiaalin merkittävyys riippuu mahdollisen haitan tai vahingon vakavuuden, päätöksenteon autonomian asteen, riskin aineellistumisen todennäköisyyden ja tekoälyjärjestelmän käyttötavan ja ympäristön vuorovaikutuksesta.
14. ’Frontend-operaattori’: luonnollinen henkilö tai oikeushenkilö, joka harjoittaa tietynasteista valvontaa tekoälyjärjestelmän toimintoihin ja toimintaan liittyvään riskiin nähden ja hyötyy sen toiminnasta.
15. ’Backend-operaattori’: luonnollinen henkilö tai oikeushenkilö, joka määrittää teknologian ominaisuuksia & asettaa saataville dataa ja olennaisia backend-tukipalveluja ja siten harjoittaa valvontaa tekoälyjärjestelmän toimintoihin ja toimintaan liittyvään riskiin nähden.
16. Asetuksessa siis keskitytään määrittämään erityisesti frontend- ja backend-operaattoreiden vastuita ja mekanismeja näille kohdistuvan siviilioikeudellisen korvausvastuun määrittämiseksi.
17. Kuten etiikka-kehyksessäkin, tässäkin keskitytään suuririskisiin järjestelmiin. Suuririskisten järjestelmien operaattoreita koskee ankara vastuu, jos kyseisen tekoälyjärjestelmän ohjaama fyysinen tai virtuaalinen toiminto, laite tai prosessi aiheuttaa haittaa tai vahinkoa.
18. Kaikki suuririskiset tekoälyjärjestelmät ja kriittiset alat, joilla niitä käytetään, olisi määriteltävä asetuksen liitteessä ja tarkasteltava säännöllisesti vähintään 6kk välein uudelleen. Ko. listaa ei ole vielä esitetty materiaalin liitteenä.
19. Suuririskisen tekoälyjärjestelmän frontend-operaattorin on varmistettava, että ko. järjestelmän toiminnoilla on vastuuvakuutussuoja, joka on riittävä suhteessa asetuksessa säädettyjen korvausten määriin ja laajuuteen (tästä myöhemmin).
20. Suuririskisen tekoälyjärjestelmän backend-operaattorin on varmistettava, että sen palveluilla on vastaavasti korvauksiin nähden riittävänsuhtainen toiminnan vastuuvakuutus- tai tuotevastuuvakuutussuoja.
21. Todetaan myös, että mikäli nykyisten pakollisten tai vapaaehtoisten vakuutusjärjestelyjen tai yritysvakuutusrahastojen katsotaan kattavan tekoälyjärjestelmän toiminta tai palvelu, asetuksen mukainen velvoite ottaa tekoälyjärjestelmää koskeva vakuutus katsotaan täytetyksi.
22. Korvauksen määrä: Haitasta vastuullisen suuririskisen tekoälyjärjestelmän operaattorin on korvattava enintään €2M. Jos tekoälyjärjestelmän sama toiminto aiheuttaa haittaa usealle henkilölle, korvauksen yhteismäärä ei voi ylittää €2M enimmäismäärää.
23. Vanhentumisaika: Esitettyihin siviilioikeudellisiin vahingonkorvausvaatimuksiin sovellettaisiin 30 vuoden vanhentumisaikaa haitan aiheutumispäivästä lähtien (tai omaisuusvahinkoja koskien vaihtoehtoisesti 10 vuoden vanhentumisaika tietyissä tilanteissa).
24. Jos kyseessä ei ole suuririskinen tekoälyjärjestelmä, sovellettaisiin operaattoriin tuottamusperusteista vastuuta järjestelmän toiminnon aiheuttamasta haitasta. Tätä koskevat periaatteet on kuvattu artiklassa 8.
25. Lopuksi määritellään vastuunjakautumista tilanteessa, jossa haitan kohteena oleva henkilö on kokonaan tai osittain vastuussa aiheutetun haitan tuottamisesta.
26. Operaattori ei siis ole vastuuuvelvollinen tilanteessa, jossa haitan kohteena oleva henkilö on yksinään syyllinen aiheutuneeseen haittaan. Operaattori voi käyttää tekoälyjärjestelmän tuottamaa dataa osoittaakseen tällaisen vaikutuksen kohteena olevan hlön myötävaikutuksen.
27. Jos järjestelmällä on useampia kuin yksi operaattori, nämä ovat yhteisvastuussa aiheutetusta haitasta. Kunkin suhteellinen vastuu määritetään sen perusteella, minkä asteista valvontaa operaattorit harjoittivat tekoälyjärjestelmän toimintoihin ja ao. riskiin nähden.
28. Johdannossa syystäkin korostetaan komission tarvetta tiiviille yhteistyölle vakuutusmarkkinan kanssa sopivien vakuutustuotteiden kehittämiseksi. Toivottavasti mietintö nostaa tekoälyjärjestelmiä koskevat vakuutukset myös eurooppalaisen vakuutusmarkkinan toimijoiden pöydille.
29. Tässäpä tämän illan avainnostot tästä Euroopan parlamentin tekoälyjärjestelmien siviilioikeudellisen vastuun järjestelmää koskevasta mietinnöstä 👉 Kommentoikaahan mm. vastuukysymyksiä tuntevat juristit ja vakuutusbisneksen toimijat millaisia ajatuksia tämä herättää!
30. Ja tottakai, kaikki nykyiset ja tulevat frontend- ja backend-operaattorit 🙃Päätän ketjun tällä kertaa tähän ja odotan mielenkiintoisia jatkokeskusteluja aiheesta, kiitos mukana olosta! 👋
1. KETJU: Nyt tulee painavaa asiaa kaikille Euroopan unionin alueella tekoälyä kehittäville, käyttööottaville ja käyttäville tahoille. Seuraavassa yhteenveto suosituksista komissiolle tekoälyä, robotiikkaa ja ko. teknologiaa koskevien eettisten näkökohtien kehyksestä.
3. Ehdotuksen sisältö on kokonaisuudessaan 136 sivua ja varsin perusteellinen esitys. Ehdotus koostuu seuraavista osista: asetus, unionin toimielinten koordinointitehtävä, noudattamista koskeva eurooppalainen sertifiointi,
komission tukitehtävä, ...
Nyt on varmaan paikallaan ihan kaikkien tarkistaa oma vaikutusarvioinnin tilanne. - ”Kaikkien terveystietoja laajamittaisesti käsittelevien rekisterinpitäjien on tehtävä tietosuojaa koskeva vaikutustenarviointi.” #vastaamo 1/X
Vaikutusarviointivaatimus ei koske pelkästään terveystietoja käsitteleviä. Tietosuoja.fi ohjeistaa asiasta mm. ”vaikutustenarviointi on tehtävä silloin, kun suunniteltu käsittely todennäköisesti aiheuttaa korkean riskin ihmisten oikeuksille ja vapauksille.” 2/X
”Vaikutustenarviointi on tehtävä erityisesti silloin, kun henkilötietojen käsittelyssä käytetään uutta teknologiaa, käsitellään laajamittaisesti rikostuomioita, rikkomuksia tai erityisiä henkilötietoryhmiä, kuten terveystietoja, etnistä alkuperää,...” 3/X