1. Tämä sivusto käyttää evästeitä. Jatkamalla tämän sivuston käyttöä, annat suostumuksesi evästeiden käytöllemme. Lue lisää.

Mobiili.fi Vältetäänkö näillä koneiden ylivalta? Googlelta 5 turvakysymystä tekoälyjen kehittäjille

Keskustelu osiossa 'Matkapuhelinuutiset', aloittaja Uutissyöte, 23/6/16.

Viestiketjun tila:
Ei auki vastauksille.
  1. Uutissyöte

    Uutissyöte

    Liittynyt:
    28/6/15
    Viestit:
    559
    Tykkäykset:
    0
    [​IMG]

    Robotiikka, koneoppiminen ja tekoälyt tekevät vauhdilla tuloaan arkemme tueksi. Kehitys tuo helpotusta, mutta sillä on myös omat riskinsä – joista yleisin lienee tekoälyjen valtaannousulla pelottelu. Googlen uusin blogikirjoitus ottaakin käytännön tasolla kantaa siihen, miten tekoälyjä kehitetään turvallisesti ja tehokkaasti.

    Googlen mukaan tekoälyjen tuomista turvariskeistä keskustellaan usein hyvin spekulatiivisesti ja oletusten värittämänä. Yhtiö näkee tärkeäksi perustaa keskustelun oikeaan tutkimukseen ja nostaakin esille viisi kysymystä, joiden uskotaan olevan tärkeitä, kun tekoälyä sovelletaan arkisissa olosuhteissa:

    • Negatiivisten sivuvaikutusten välttäminen: Kuinka voidaan varmistaa, että tekoäly ei vahingoita ympäristöään tehtäväänsä suorittaessaan? Esimerkkinä siivousrobotti, joka kaataa huonekaluja pyrkiessään siivoamaan nopeammin.
    • Palkintojen aiheuttaman huijauksen välttäminen: Miten voidaan välttää tilanteet, jossa esimerkiksi siivousrobotti peittää sotkuja materiaaleilla, joista se ei näe läpi ja kokee näin tehtävän hoidetuksi?
    • Skaalautuva valvonta: Miten voidaan varmistaa, että tekoäly käyttää saamaansa palautetta hyväksi tehokkaasti eikä ajaudu tarkistamaan toimintaansa valvojalta jatkuvasti?
    • Turvallinen tutkiminen: Miten voidaan varmistaa, ettei tekoälyn tekemillä kokeiluilla ole haitallisia seurauksia? Esimerkkinä siivousrobotti, jonka tulisi kokeilla erilaisia moppaustekniikoita tehokasta toimintaa tavoitellessaan, mutta jonka ei tulisi kokeilla mopin asettamista pistorasiaan.
    • Ympäristön muutosten sietokyky: Miten varmistetaan, että tekoäly tiedostaa olevansa koulutuspaikasta poikkeavassa ympäristössä ja muuntaa toimintaansa vaaditusti? Esimerkkinä siivousrobotti, jonka tehtaalla oppimat tekniikat eivät välttämättä ole tarpeeksi turvallisia toimistoympäristöön.

    Googlen tutkijat käsittelevät aihetta tarkemmin uudessa tutkielmassaan. Yhtiö kertoo jatkavansa aktiivisesti muiden koneoppimista tutkivien tahojen kanssa tekoälyn kehittämistä positiivisissa merkeissä.

    Miten sinä näet tekoälyt ja IT-palvelujen tulevaisuuden? Osuvatko Googlen esittelemät kysymykset naulan kantaan vai jääkö jotain kriittisiä turvariskejä käsittelemättä?

    Jatka lukemista...
     
Viestiketjun tila:
Ei auki vastauksille.

Jaa tämä viestiketju