Det er velkjente samspill når en partner i en samarbeidsrelasjon har mer kunnskap og erfaring enn den andre. Det kan føre til formell eller uformell veiledning, arbeidskontroll, betalt eller ubetalt konsultasjon osv. Eksempler kan være veiledning av studenter, kollegaveiledning, forlagsredaktørens samspill med forfatter osv.
Dette kan forandres når en eller begge parter bruker generativ kunstig intelligens. Her er fire scenarier i-iv
Blått: klient (student, kollega i kvalifikasjonsløp, forfatter, ..).
[Fra New York Times 30.04.25] Andrea Colamedici fant opp en filosof, presenterte ham som forfatter og produserte en bok – i hemmelighet generert med hjelp av kunstig intelligens – om hvordan virkeligheten manipuleres i den digitale tidsalder. Folk ble lurt. Anklager om uærlighet, dårlig etikk og til og med lovbrudd haglet.
Men mannen bak, Colamedici selv, insisterer på at det ikke var en bløff; snarere beskriver han det som et «filosofisk eksperiment» som skal vise hvordan KI «langsomt, men uunngåelig, vil ødelegge vår evne til å tenke».
I desember trykket Colamedicis forlag 70 eksemplarer av en italiensk utgave som han angivelig oversatte selv. Likevel fikk boken raskt uforholdsmessig stor oppmerksomhet, med omtale i medier i Tyskland, Spania, Italia og Frankrike, og ble sitert av teknologiske autoriteter.
Hypnocracy beskriver hvordan mektige personer bruker teknologi til å forme oppfatninger gjennom «hypnotiske narrativer», og dermed setter offentligheten i en slags kollektiv transe – en tilstand som kan forsterkes av avhengighet til KI.
Publiseringen av boken skjedde samtidig som skoler, bedrifter, myndigheter og nettbrukere verden over forsøker å finne ut hvordan KI-verktøy skal – og ikke skal – brukes, etter at teknologigiganter og oppstartsbedrifter har gjort dem allment tilgjengelige. (The New York Times har saksøkt OpenAI, skaperen av ChatGPT, og samarbeidspartneren Microsoft, med påstand om brudd på opphavsrett. De to selskapene har avvist anklagene.)
Boken, sier Colamedici, skulle vise farene ved en «kognitiv apati» som kan utvikle seg dersom tenkning overlates til maskiner og folk ikke lenger trener sin dømmekraft.