dimecres, 31 de juliol del 2019

Giant Language model Test Room (GLTR)

La darrera entrada del blog del mes de Juliol l'escric amb un punt, deixeu-me ser vulgar, d'acolloniment. Aquest mes que avui s'acaba ha estat un desastre des de molts punts de vista, tots, des de la la perspectiva de la condició humana (Eric Fromm no estaria gens satisfet de veure-ho), del nostre present i del nostre futur, gens encoratjador, tot sigui dit.

Juliol del 2019 ha transitat entre la constatació de l'acceleració del canvi climàtic, que ja és un fet (jo no havia vist mai de la meva vida en el termòmetre del cotxe o la moto, 46 graus centígrades) fins i tot pels negacionistes recalcitrants tipus Donald Trump ("la culpa és del Xinesos i de la seva propaganda"), l'avenç imparable del populisme instal·lat en l'hipèrbole, l'exegeració i la mentida,  l'evidència de la degeneració de la classe política (constitució de govern fallida a Espanya, elecció de Boris Johnson com a primer ministre britànic, i el triomf de la imbecilitat com a concepte en clara expansió (l'amic Josep Ramírez em passa el "link" de l'article de Màrius Carol a La Vanguardia d'avui, que és una joia que cal llegir.

I així ens va, al col·lectiu cada vegada més mal anomenat de Sàpiens, Sàpiens. Cada  tincdia que passa tinc més clar que l'espècie camina cap a l'autodestrucció a passes de gegant (ahir els humans vam consumir tots els recursos del Planeta Terra per a tot un any segons "Global Footprint Network", quan aquesta fita es produia a finals de desembre tot just l'any 1970: en 50 anys hem fet una correguda impressionant cap a l'esgotament de recursos via sobre-explotació).

I tot això degudament combinat amb l'altre gran problema del Segle XXI que és, sense dubte, el perill associat a la (part negativa) de la utilització de la intel·ligència artificial.

Uns científics de IBM,  del MIT (Massachussets Institute of Technology) i de Harvard estan experimentant amb una eina que està dissenyada per a detectar els textes que corren per la xarxa que no han estat escrits per humans sino per algoritmes dissenyats per robots. Si el març del 2016 una novel·la escrita per un robot va quedar finalista del concurs literari Hoshi Shinichi al Japó, imagineu-vos que pot fer, amb el suport tecnològic adequat, personatges com Putin, Erdogan, Salvini, Trump, Bolsonaro, Puigdemont i d'altres "imbècils" (en el sentit Mariuscarolià de la paraula)....

L'algoritme d'anàlisi es troba disponible a Internet i es poden fer proves per a detectar la probabilitat que un text hagi estat escrit per un robot o un humà. El sistema codifica amb colors les probabilitats i quan més verd hi ha en el texte analitzat, més probable és que sigui generat per un algoritme d'intel·ligència artificial. http://gltr.io/dist/index.html

Jo ho he provat amb dos textes, el primer "The likelihood of finding life in Mars is very little" (la probabilitat de trobar vida a Mart és molt escassa), amb el resultat que la paraula "likelihood", probabilitat, és molt improbable que hagi estat escrita per un robot.

Llavors hi he posat: "Trump is the greatest president of the history of United States", i...curiós, no? la probabilitat que hagi estat escrita per un robot puja exponencialment.

I així ens anem movent per una existència que no sabem ben bé on ens està portant, entre la Siri, l'Alexia i la Cortana que ens espien des dels nostres mòbils i ordinadors, i la intel·ligència artificial que ens contamina cada vegada més amb notícies falses....








1 comentari: