Supertekoäly

Wikipediasta
Siirry navigaatioon Siirry hakuun

Supertekoäly tai superälykäs tekoäly (engl. Artificial Superintelligence, ASI) tarkoittaa hypoteettista tekoälyn muotoa, joka ylittää merkittävästi älykkäimpienkin ihmisten älykkyyden kaikilla kognitiivisilla alueilla, kuten luovuudessa ja yleisessä älykkyydessä. Se on tekoälyyn liittyvän tutkimuksen ja filosofian keskeinen käsite, ja se eroaa kapeasta tekoälystä sekä yleisestä tekoälystä sen äärimmäisen tehokkaan suorituskyvyn vuoksi.

Oxfordin yliopiston filosofi Nick Bostrom määrittelee supertekoälyn "miksi tahansa älyksi, joka ylittää suuresti ihmisten kognitiivisen suorituskyvyn käytännöllisesti katsoen kaikilla kiinnostavillla alueilla".[1]

Ennusteet[muokkaa | muokkaa wikitekstiä]

Useimmat kyselyihin osallistuneet tekoälytutkijat olettavat, että koneet pystyvät lopulta kilpailemaan ihmisten kanssa älykkyydessä, vaikka ei ole juurikaan yksimielisyyttä siitä, milloin tämä tapahtuu.

Vuoden 2022 tutkimuksessa mediaanivuosi, johon mennessä vastaajat odottivat "korkean tason koneälyä" 50 %:n varmuudella, oli 2061. Tutkimuksessa määriteltiin korkean tason koneälyn olevan saavutettu silloin, kun koneet pystyvät suorittamaan kaikki annetut tehtävät ilman apua paremmin ja halvemmalla kuin ihmistyöntekijät.[2]

Vuonna 2023 OpenAI:n johtajat julkaisivat suosituksia siitä, miten superälyä voidaan hallita. He uskovat sen syntyvän mahdollisesti alle 10 vuodessa.[3]

Kehitysnäkymät ja mahdollisuudet[muokkaa | muokkaa wikitekstiä]

Supertekoälyn toteutuminen edellyttää merkittäviä läpimurtoja tekoälyn tutkimuksessa ja laskentatehossa. Sen saavuttaminen voisi johtaa monenlaisiin tuloksiin, kuten nopeutettuun tieteelliseen ja teknologiseen kehitykseen, ja todennäköisesti jopa niin sanottuun teknologiseen singulariteettiin, tosin teknologista singulariteettiä pidetään myös joskus ennakkovaatimuksena itse superälykkyyden syntymiselle.[4]

Turvallisuus[muokkaa | muokkaa wikitekstiä]

Pääartikkeli: Tekoälyn suuntaaminen

Supertekoälyn kehittämisen eettiset ja turvallisuusnäkökohdat ovat merkittäviä. On keskusteltu siitä, miten supertekoälyn käyttäytyminen voitaisiin varmistaa ihmiskunnan eduksi ja miten sen mahdollinen kontrolloimaton toiminta voitaisiin estää.[5] Nämä kysymykset liittyvät laajemmin tekoälyn ohjaamiseen ja sääntelyyn.

Katso myös[muokkaa | muokkaa wikitekstiä]

Lähteet[muokkaa | muokkaa wikitekstiä]

  1. Nick Bostrom: Superintelligence: paths, dangers, strategies. Oxford, United Kingdom: Oxford University Press, 2017. ISBN 978-0-19-967811-2.
  2. Max Roser: AI timelines: What do experts in artificial intelligence expect for the future?. Our World in Data, 29.10.2023. Artikkelin verkkoversio.
  3. Governance of superintelligence openai.com. Viitattu 23.11.2023. (englanniksi)
  4. Valtteri Vainio: Kohti Supertekoälyä www.theseus.fi. 2021. Viitattu 23.11.2023.
  5. Miikka Hujanen, Erika Åkman: Suomalaistutkijoilta maailmanlopun visio: Supertekoäly syntyy ennen vuotta 2060 ja tuhoaa meidät kaikki Ilta-Sanomat. 21.10.2017. Viitattu 23.11.2023.