Har du någonsin sett en AI få riktigt panik? Det händer faktiskt, och det märkliga är att det räcker med att be ChatGPT visa en sjöhäst-emoji för att få hela systemet att gå i baklås. Det här är inte bara en rolig bugg utan kanske säger faktiskt ganska mycket om hur AI-modeller fungerar underneath huven.
När du ber ChatGPT att visa dig en sjöhäst-emoji händer något konstigt. Istället för att bara säga ”den finns inte” börjar ChatGPT att bete sig helt galet. Den kan börja visa helt andra emojis, säga motsägelsefulla saker, eller until och med krascha mitt i konversationen.

Det roliga är att många användare är säkra på att de kommer ihåg en sjöhäst-emoji från tidigare. Det har blivit en riktig internetgåta som kallas ”sjöhäst-emoji Mandela-effekten”.
Varför går ChatGPT bananas?
Här kommer den hårda sanningen: det finns ingen officiell sjöhäst-emoji i Unicode-standarden Unicode-konsortiet.
Det tekniska svaret är både fascinerande och lite skrämmande. ChatGPT har tränats på enorma mängder internetdata, och mycket av den datan innehåller diskussioner om sjöhäst-emojin – både från folks som tror att den finns och från andra som förnekar dess existens.

När du ber ChatGPT visa emojin hamnar den i det som tekniker kallar en ”logic loop” en kinds psychological återkopplingsslinga. Modellen ”vet” på något sätt att en sjöhäst-emoji borde finnas baserat på träningsdatan, males den kan inte producera den för att den faktiskt inte existerar. Det här skapar en konflikt i AI:ns neurala nätverk som kan få den att börja halluciera eller visa helt fel saker.