OpenAI-laboratoriet har oprettet et neuralt netværk, som selv anser for at være meget farligt.

Forskningslaboratoriet OpenAI har åbnet adgang til den fulde version af det neurale netværk "GPT-2", designet til at generere meningsfuld tekst om vilkårlige emner. Det var klar tilbage i februar, men udviklerne var så imponeret over resultaterne af deres hjernebarns aktivitet, at de simpelthen var bange for at frigive det til verden. Flere afskallede versioner af AI blev præsenteret for at se, hvordan internetsamfundet ville reagere på dem, og vigtigst af alt, hvordan de ville anvende.

Det neurale netværk GPT-2 blev trænet i 8 millioner tekster fra Internettet og er i stand til hurtigt og præcist at genkende essensen af ​​det, der er skrevet for at drage konklusioner og fortsætte teksten. For eksempel er en fængende overskrift nok for hende til at skrive teksten til "sensationelle" nyheder, som mange vil tage for sandheden. AI ved, hvordan man arbejder med litterære teknikker, med tekniske tekster, han skriver poesi og kan føre en samtale, komponere detaljerede svar på spørgsmål.

Frygt for eksperter skyldtes, hvor overbevisende teksterne fra GPT-2 ser ud. AI ved ikke, hvordan man ligger i bogstavelig forstand, det har ingen ondsindet hensigt, men det jonglerer dygtigt ord for at udgøre tungtvejende lydende sætninger. Naturligvis har det neurale netværk også nok sårbarheder - for eksempel kan det ikke bygge et langt plot, det fungerer kun med små tekster. Eller hun kan begå en grov fejl ved fejlagtigt at fortolke navnet på et ukendt objekt.

Som et resultat blev der truffet en beslutning på princippet om "at slå en kil ud af en kil" - i stedet for at skjule GPT-2 gav udviklerne fuld adgang til AI, så alle personligt kunne teste det neurale netværk. Jo flere mennesker lærer hende at kende, jo mere kyndige og derfor mindre sårbare, bliver de. Og så vil brugen af ​​AI til egoistiske formål ikke længere have sådanne destruktive konsekvenser.