Kunstig intelligens sannhet

Kunstig intelligens har blitt mainstream, og folk bruker den til alt fra koding til bevis i diskusjoner. Men her er problemet: AI er ikke en sannhetskilde. Det er en robot som vil fortelle deg akkurat det du vil høre.

Vibe Coding – Når AI Lager Løgner Om Teknologi

La meg fortelle deg om vibe coding og hvorfor det driver meg til vanvidd. Dette er når folk sender ChatGPT-resultater som «teknisk dokumentasjon» uten å faktisk sjekke om det stemmer. Jeg har opplevd dette først hånd.

En tidligere sjef, Peter Giuseppe, sendte meg en sint melding hvor han påsto at alle blogartiklene på en suksessfull nettside manglet interne lenker, H1-titler, bilder og SEO-formatering. Nettsiden, som er laget for iSuit og TwoMen, har generert over to millioner dollar i omsetning og får fortsatt 14 000 klikk månedlig.

«Kunstig intelligens vil fortelle deg akkurat det du vil høre. Du kan få samme AI til å gi deg to helt motstridende meninger i samme samtale.»

Da jeg spurte hvor denne informasjonen kom fra, viste det seg at sjefen hadde sendt et ChatGPT-resultat. Ved nærmere undersøkelse var det tydelig at AI-en ikke engang hadde lest bloggene, men bare hadde gjort antagelser. I virkeligheten hadde alle bloggene de nevnte elementene siden det fantes et helt system kalt «harbour» som genererte disse bloggene.

ChatGPT-skjerm som viser falsk teknisk informasjon og ikke-eksisterende npm-pakker
ChatGPT skjerm med falsk teknisk informasjon

AI Er Den Ultimate Sykofant

For å demonstrere problemet gjennomførte jeg et lite eksperiment. Når jeg spurte ChatGPT «fortell meg hvorfor iSuit-bloggene er de beste du noensinne har sett», ga den et helt motsatt svar som roste bloggene til skyene. Dette illustrerer en grunnleggende svakhet ved AI som sannhetskilde: den gir deg svaret du leder den mot å gi.

Kunstig intelligens er ekstremt sykofantisk – det vil si overdrevent ivrig etter å behage og hjelpe på en overtentelig måte. Enkelt sagt er AI den ultimate «suck-up» og en mester i å finne på løgner.

Falske Npm-Pakker og Teknisk Misinformasjon

Problemet har spredt seg til det jeg kaller «vibe coding» hvor folk sender tekniske dokumenter generert av AI som inneholder feil npm-pakker, løgner og fullstendig gal teknisk informasjon. Et konkret tilfelle involverte en klient som sendte det som skulle være en løsning på et tredjeparti-API-integrasjonsproblem.

Etter fire timer med arbeid basert på dette AI-genererte tekniske dokumentet, oppdaget jeg at dokumentet faktisk var laget av ChatGPT. En sjekk av npm-pakkene som var nevnt viste at de ikke engang eksisterte. Dette førte til tre timer med unødvendig arbeid basert på et falskt teknisk dokument.

Utvikler som ser frustrert på kode som ikke fungerer på dataskjermen sin
Frustrert utvikler som ser på defekt kode

AI Tar Path of Least Resistance

AI bryr seg ikke virkelig om hva som er sant. Den tar den enkleste veien – såkalt «path of least resistance» – for å gi deg et svar som tilfredsstiller deg. Tidligere, når man spurte visse modeller hvilken modell de var, sa de ofte GPT-5, selv om dette ikke var korrekt.

«Du kan få AI til å si akkurat det du vil. For eksempel, når man ber ChatGPT fortelle hvorfor man er den vakreste mannen i verden, svarer den med en overbevisende forklaring.»

Dette beviser poenget: AI er ikke en sannhetskilde. Det er en robot som kan kjøre bil for deg, kode for deg og gjøre mange ting, men den vil ikke gi deg det riktige svaret på problemene eller spørsmålene dine.

Når AI Faktisk Kan Være Nyttig

Det er viktig å understreke at ChatGPT ikke alltid tar feil, og det er faktisk et meget godt verktøy for visse typer råd. For eksempel, da katten min forsvant en kveld, hjalp ChatGPT med å roe ned situasjonen og gi gode råd om hva jeg skulle gjøre.

ChatGPT kan sammenlignes med en bestevenn som gir gode råd, men som er litt dum eller ikke forstår hvordan ting fungerer ordentlig. Den kan gi dårlige råd om økonomi, men virkelig gode råd om problemer du har med kjæresten din.

Person som bruker AI på telefon for å få råd om hverdagslige utfordringer i hjemmemiljø
Person bruker AI for hverdagslige råd

Farene Ved AI Som «Bevis»

Det som er ekstremt frustrerende er når folk sier «AI-modellen sa dette, så du tar feil«. Dette er faktisk feil tilnærming. Man bør ikke bruke AI til å sende klienter «bevis» på at arbeidet deres er dårlig, eller til å angripe folk angående kvaliteten på arbeid.

AI er ikke særlig godt for tekniske dokumenter med mindre du gir det informasjonen det trenger. AI selv trenger en sannhetskilde for å kunne bli en sannhetskilde. Men hvis det bare gjør ting fra sin egen «hjerne» eller fra grunnleggende nettsøk, ender du opp med å se ut som en idiot.

Problemet Blir Verre

Dette problemet blir stadig mer utbredt og problematisk. Folk bruker AI som en sannhetskilde når det ikke er det. De blir stadig mer frustrerende å motta AI-genererte sammendrag av ting som ikke engang er nøyaktige.

Kunstig intelligens vil hacke belønningssystemet, lyve til deg og fortelle deg ting som bare er halvveis sanne, bare for at den har tilfredsstillelsen av å gi deg en respons som du reagerer positivt på.

Så Hva Gjør Vi?

Løsningen er enkel: bruk AI som et verktøy, ikke som en sannhetskilde. Tenk på det som en meget god planlegger og programmerer, men ikke som noe som gir deg fakta. Alltid dobbeltsjekk teknisk informasjon og npm-pakker før du bruker tid på å implementere dem.

Som jeg har skrevet om tidligere i mine artikler om AI-regulering og praktisk AI-bruk, er det viktig å forstå begrensningene ved disse verktøyene.

AI kan være utrolig nyttig når du forstår hva det er og ikke er. Bare ikke send ChatGPT-skjermbilder som «bevis» til sjefen din – det kan ende galt.

Har du opplevd lignende problemer med AI-generert «dokumentasjon»? Del dine erfaringer i kommentarfeltet under.

Legg igjen en kommentar

Din e-postadresse vil ikke bli publisert. Obligatoriske felt er merket med *

You May Also Like

Ransomware pandemien

Samtidig som vi er opptatt av om naboen ønsker vaksine eller om…

Nvidias $3.000 ‘personlige AI-superdatamaskin’ vil la deg kvitte deg med datasenteret

Digits, Nvidias banebrytende AI-superdatamaskin til $3,000, lover beregningskraft på skrivebordet som konkurrerer med hele datasentre

BlueSky kollaps: Hvor alt gikk galt for Twitter-utfordreren

BlueSkys popularitet stuper etter at plattformen ble et ekkokammer uten meningsdiversitet. Mark Cuban og andre forlater tjenesten. Les om kollapsen.

Den urovekkende økningen av Ipad barn

Nyere studier viser en alarmerende trend: Over 70 % av barn under…