14/09/2020

El tecnoxovinisme i l'educació

4 min
Més d'un milió i mig d'alumnes han començat  el curs de la mascareta i el gel.

La llengua materna d’Isabel Castañeda és l'espanyol. Al seu centre –el Westminster High, de Colorado– sol obtenir la màxima puntuació en aquesta matèria. Però aquest any ha suspès l’examen d’espanyol del batxillerat internacional.

Com ha pogut passar una cosa així? Resulta que va ser un algoritme qui va posar la nota a Castañeda i a 160.000 estudiants més. L’Organització del Batxillerat Internacional –un programa que concedeix a alumnes de tot el món un títol molt prestigiós, a més del que reben dels centres de secundària– va suspendre els habituals exàmens finals a causa de la pandèmia. Els va substituir per un algoritme que “predeia” les notes dels alumnes a partir d’una sèrie de dades, com ara les notes previstes pels professors i els resultats anteriorment obtinguts pels alumnes dels diferents centres educatius.

Castañeda no ha sigut l’única que ha rebut un suspens tan sorprenent: desenes de milers d’alumnes de batxillerat internacional han protestat, en línia i en persona, per les qualificacions assignades per ordinador. Els més afectats han sigut els estudiants d’alt rendiment acadèmic però amb baixos ingressos: molts d’ells es van presentar als exàmens amb l’esperança de treure bona nota i guanyar una beca que els estalviaria els milers de dòlars de la matrícula.

L’Organització del Batxillerat Internacional tampoc ha sigut l’única que ha recorregut a un programa informàtic per posar nota als alumnes en plena pandèmia. Al Regne Unit també van suspendre els exàmens presencials de final de batxillerat (A-level), que ajuden a decidir a quines universitats aniran els alumnes, i els van substituir per qualificacions fixades per un algoritme. Els estudiants a qui es va denegar l’ingrés a la universitat a causa d’aquestes qualificacions imaginàries van sortir al carrer corejant consignes contra els algoritmes. Va haver d’esclatar un gran escàndol perquè el govern modifiqués la seva posició, tot i que són molts els alumnes que han quedat als llimbs sense ingressar a la universitat.

La lliçó que es treu de tot aquest desori és clara: la nota dels alumnes no s’ha de posar amb algoritmes. I, en general, hauríem de ser molt més crítics amb la presa de decisions a partir d’algoritmes, sobretot en matèria d’educació. A causa de la pandèmia, ara ens resulta temptador imaginar que les solucions tecnològiques poden substituir institucions socials com l’escola. Però no poden.

Els buròcrates que van decidir posar notes a l’alumnat amb un ordinador són culpables d’un biaix que jo anomeno tecnoxovinisme: la idea que les solucions tecnològiques són superiors. Sol anar acompanyat de conceptes igual de fal·laços, com ara “Els ordinadors prenen decisions neutrals” o “Els ordinadors són objectius perquè les seves decisions es basen en les matemàtiques”.

Els ordinadors són excel·lents per a les matemàtiques, però l’educació no és com les matemàtiques: és un sistema social. I els sistemes algorítmics fallen reiteradament a l’hora de prendre decisions de caràcter social. Els algoritmes no són capaços de controlar ni detectar els discursos d’odi; ni de substituir els treballadors socials en els programes d’assistència pública, ni de preveure els delictes, ni de decidir quins són els candidats més adequats per a un lloc de treball, ni de fer un reconeixement facial eficaç; i tampoc són capaços de posar nota als treballs ni de substituir els professors.

En el cas del batxillerat internacional, els científics van utilitzar un mètode legítim, propi de la ciència de dades i semblant als que prediuen les sèries de Netflix que voldrem veure o el desodorant que segurament demanarem a Amazon. El problema és que la ciència de dades és fatal a l’hora de fer unes previsions ètiques o justes. En el món de l’educació, el biaix racial i el de classe estan incrustats dintre del sistema, i un algoritme no fa sinó intensificar-los.

Les generalitzacions poc depurades funcionen per als suggeriments de Netflix perquè el que està en joc no és gens important. Si l'algoritme de Netflix em proposa un programa que no m'agrada, no en faig cas. En el camp de l’educació, en canvi, el que està en joc és més important. L’expedient acadèmic t’acompanya durant anys.

En el cas d’Isabel Castañeda, segurament el seu suspens es deu, en part, al fet que una de les dades de l’algoritme eren els resultats del seu centre educatiu. L’ordinador va donar per fet que els alumnes del Westminster High, que majoritàriament són estudiants de color de classe humil, continuarien traient mals resultats. “A tothom que conec li han rebaixat la nota –diu Castañeda–. No és just que ens abaixin la puntuació per culpa de l’historial del nostre institut. És injust castigar els alumnes pel lloc on viuen”.

Una altra de les dades de l’algoritme eren les qualificacions previstes pels docents. Els professors acostumen a tenir unes expectatives més baixes per als estudiants de color que per als blancs; la comunitat educativa és prou conscient d’aquest biaix, desconegut pels que es dediquen a la ciència de dades. Un prejudici humà es va imposar en aquest sistema informàtic.

L’Organització del Batxillerat Internacional i Ofqual, l’organisme oficial que gestiona els exàmens de final de batxillerat al Regne Unit, han admès a contracor que les qualificacions algorítmiques han sigut un error. Després de fortes protestes, s’han presentat demandes contra totes dues organitzacions. Molts estudiants, inclosa Isabel Castañeda, han acabat rebent unes notes imaginàries més altes.

Aquesta setmana Roger Taylor, president d’Ofqual, s’ha disculpat davant d’una comissió d’educació de la Cambra dels Comuns: “Ens sap greu el que ha passat aquest estiu. Vist amb perspectiva, sembla evident que aquest sistema no hauria donat mai bons resultats”.

Ara que ens amenaça un quadrimestre de tardor en línia, hi haurà infinitat de crides tecnoxovinistes a transformar l’educació i fer servir eines algorítmiques que prometen avaluar l’aprenentatge dels estudiants. Resistiu-vos a aquestes crides.

Traducció: Lídia Fernàndez Torrell

Copyright The New York Times

stats