AI-mulighederne kalder på refleksion og dialog

ChatGPT har fået en søster, nemlig Sora – en videogenerator, der er baseret på kunstig intelligens (AI) udviklet af OpenAI, der også står bag sprogmodellen ChatGPT, som for et år siden blev det mest omdiskuterede teknologi i meget lang tid. Med ChatGPT er eksaminer og opgaver udfordret i deres hidtige form, og det samme er behovet for viden og behovet for at bruge timer på at formulere og analysere.

Mange børn og unge har taget ChatGPT i brug, og det samme gælder på arbejdspladser indenfor mange brancher.

Og mens vi stadig er i overvejelsesfasen omkring regler og retningslinjer hvad angår børn og unge og deres skolearbejde, så lancerer OpenAI nu også Sora, der kan omformulere tekst til videoer. 

I begge tilfælde skal man “prompte”.

At prompte betyder kort fortalt at instruere maskinen til at svare

Hvis du er god til at prompte, får du et mere præcist svar.
Det samme gælder i forbindelse med OpenAI´s nye tilbud, nemlig video-generering baseret på en tekst. Nederst kan du se OpenAI´s egen præsentation af teknologien. Men først kan det være en god idé at se den korte Explainer fra P3 Essensen herunder, som kort fortæller om teknologien men også om dilemmaerne:

Det er sjovt, det er nemt, men...

De nye video-muligheder viser, at der efterhånden ikke er grænser for, hvad der kan lade sig gøre med AI (kunstig intelligens), så det efterlader ofte brugerne til selv at vurdere det. Børn og unge har allerede taget ChatGPT til sig, ligesom de fleste sociale medier har brugere i alle aldre. Men hvem uddanner brugerne, mens politikere og lovgivere forsøger at finde retningslinjer for udviklingen af AI?

Gode dialogspørgsmål om AI-video til forældre og fagpersoner:

Hvad er det gode ved de AI-genererede videoer?

Hvordan vil du kunne se, om det er en ægte video?

Hvorfor/hvorfor ikke er det vigtigt at kunne se, om de er ægte?

Burde der være regler for, hvilke videoer, man kan lave? (Hvilke)

Hvilke konsekvenser kan Sora have for dig som bruger? 
(For eksempel dine billeder og dine profiler)

Hvordan ville man kunne misbruge Sora?

Hvilke grunde kan man have til at misbruge Sora?

Hvordan vil du bruge Sora?

Hvad kan man gøre for at sikre, at der ikke sker misbrug og forfalskninger?

Hvorfor er dette emne overhovedet vigtigt?

Ifølge World Economic Forum er misinformation den næststørste trussel mod verdensfreden (Fagbladet Journalisten skriver om rapporten HER), og her er AI genererede videoer af den kvalitet, som Sora kan levere, endnu en udfordring. 

Meta, der ejer Facebook og Instagram opfordrer til, at man skaber en teknologi, der gør det muligt og påkrævet at mærke A.I.-genereret indhold (det kan du læse om i New York Times HER)

Mens vi venter på tekniske løsninger, der – måske – kan betyde færre muligheder for at sprede falske nyheder, er brugerne, som er os alle, vigtige. Derfor er dialoger og løbende refleksion afgørende for brugerforståelsen.

Hvis du er forældre, så se med her:

Videoen er lavet et par år før, at Sora blev udrullet i februar 2024. Formålet med denne lille reminder er at få forældre og digitale brugere til at reflektere over, hvad vi deler.

OpenAI´s egen præsentation kan du se herunder

Vil du vide mere?

NYHEDSBREV

Picture of Lykke Møller Kristensen

Lykke Møller Kristensen

Forfatter, journalist og foredragsholder med snuden stift rettet mod vores digitale liv og de muligheder og konsekvenser det betyder.