Lavoro, Temi, Interventi

Le mie prime mosse da turco meccanico iniziano circa 3 anni fa: siamo nella prima estate post-GPT, il modello di linguaggio è da pochi mesi sul mercato e i tecnocrati hanno da poco cominciato a gonfiare la bolla speculativa dell’AI.

Dal canto mio convivono interesse e curiosità assieme a preoccupazioni e remore etiche, limitate tuttavia dall’ottica di un comune cittadino, a malapena maggiorenne tra l’altro. Difatti in quel momento ho finito il Liceo, e sto lavorando da stagista alla Conad per i soliti 5€ l’ora legalizzati, con l’obiettivo di garantirmi un percorso universitario più sereno, almeno finanziariamente.

È durante una giornata NO al lavoro che mi domando se davvero le alternative per uno studente-lavoratore siano solo i classici stage o i servizi di ristorazione. Magari il periodo, magari l’interesse personale, fatto sta che mi viene in mente l’AI: settore nuovo, in rapida espansione e con una quantità spropositata di fondi… Ed è a questo punto che penso “tentar non nuoce”.

Cerco “AI JOBS” su Google e dopo aver scavato un po’ trovo siti come Outlier, DataAnnotation e Alignerr che offrono lavori da remoto per chiunque, dal più qualificato e preparato al semplice diplomato, a patto che si conoscano almeno due lingue: la propria e, come minimo, l’inglese. È semplice inviare una richiesta di assunzione, basta davvero una mail e un CV. Una volta fatto, anche poche ore dopo si riceve un’email con un link che rinvia a quello che di solito sembra essere un quiz, un test, o un’intervista da remoto, per verificare le conoscenze della lingua inglese e le capacità di problem solving.

Va fatta una digressione sull’intervista, che ci permette di avere da subito un assaggio di cosa ci aspetterà dopo: non ci si interfaccia con un essere umano, ma con un audio preregistrato che fa domande, le quali scattano in automatico non appena l’intervistato smette di rispondere alla precedente. Non c’è alcun tipo di feedback dunque, sei tu che parli da solo. Realisticamente, anche le risposte vengono valutate da una macchina, magari dopo essere trascritte (ovviamente, automaticamente) in formato testuale. Se la macchina ritiene che le tue risposte siano valide, un’ulteriore email, sempre generata artificialmente, viene inviata al tuo indirizzo con le credenziali per accedere all’area di lavoro. Ma questo ovviamente non implica che lavorerai, tutt’altro: questo perché non hai stipulato alcun tipo di contratto, formalmente sei disoccupato, fiscalmente magari un freelance…

Il fatto è che, per quanto tu sia posto al servizio dell’azienda, l’azienda non ha alcun tipo di onere nei tuoi confronti: la natura stessa di questi lavori è la loro saltuarietà e assoluta dipendenza dalle Big Tech che magari commissionano a Outlier qualche decina di migliaia di tasks da far svolgere ai cricetini nelle ruote sparsi per il mondo. Non c’è garanzia di continuità, crescita o meritocrazia: se il lavoro c’è, bene, altrimenti silenzio stampa e attesa divina di una benedizione dagli Dei della Silicon Valley. Vien da sé che un lavoro del genere non può essere contrattualizzato: la stessa azienda per cui lavori non sa quando ci sarà, effettivamente, lavoro, non può dunque garantirti nulla. In un certo senso, sei come un rider o un autista di Uber, solo che non sei “protetto” nemmeno durante lo svolgimento delle tue mansioni in questo caso. Di certo non rischi di farti male scrivendo al computer, ma se qualcosa dovesse andare storto (ad esempio un mancato pagamento), non hai alcun tipo di tutela. È un patto a senso unico, devi fidarti della corporation. Non solo: man mano che affronto i task proposti questi si modificano in qualità – diventando più complessi – e in quantità – da giugno dell’anno scorso avverto una riduzione significativa.

È sotto questa lente che va inquadrata la gig economy digitale: operi in una struttura quasi misteriosa, dove non è chiaro quali siano i principi gerarchici o chi vi sia ai piani più alti. Non sai neanche se dietro le mail, gli aggiornamenti, i pagamenti e le linee guida vi sia un essere umano oppure no. Tutto in realtà sembra essere automatizzato, dalla tua assunzione alla valutazione del tuo lavoro, e persino al tuo “licenziamento”, che spesso non ti viene né comunicato né giustificato, la tua dashboard, semplicemente, smette di aggiornarsi con nuovi lavori. Non sai nemmeno se sei stato cacciato o se è semplicemente un periodo di magra per la Silicon Valley. Se dovesse essere la prima, di certo non ti verrà detto: ancora una volta non sei nessuno, non ti si deve nulla, se hai sbagliato non sei utile e non abbiamo interesse nel vederti migliorare, ci sono altre decine di migliaia di cervelli come il tuo che possono sostituirti, non ci conviene spendere tempo e risorse per spiegarti come migliorare.

Lavori per una macchina, perché di fatto il tuo ruolo è quello di addestrare un’IA, ma sei, effettivamente, ridotto a macchina tu stesso. In fabbrica gli strumenti difettosi non vengono riparati se ve ne sono migliaia che possono sostituirli. Non c’è, in realtà, nulla di nuovo in questo: lavoratori il cui lavoro è quello di migliorare ciò ​che li sostituirà. Marx già osservava come le macchine stessero sostituendo il lavoro umano, non ne sarebbe sorpreso.

Come tutte le cose, però, ci sono anche lati positivi, e vanno spezzate delle lance in favore dei mostri digitali: per uno studente come me un lavoro del genere è una manna dal cielo. La paga è, relativamente, buona (ho lavorato e a volte continuo a lavorare nella ristorazione e nel commercio. Ed è questo il mio riferimento) e puoi scegliere di lavorare quando vuoi (a patto che ci sia, effettivamente, un progetto da svolgere) e quanto vuoi. Se metto da parte le implicazioni etiche dietro ciò che, anche se in minima parte, contribuisco a creare, posso dire di ritenermi fortunato.

Tanti miei amici e compagni devono fare turni assurdi per mantenersi gli studi, mentre io magari posso portarmi il computer a lezione e lavorare mentre il professore spiega. Non ho obblighi lavorativi, in un certo senso. I meccanismi dietro queste società sono sicuramente oscuri e ambigui, ma non hanno propriamente un’etichetta bianca o nera. Oggettivamente, ci sono lati positivi e lati negativi, come nella stessa intelligenza artificiale: il problema è l’uso che se ne fa, e la velocità con la quale progredisce. Mi capita di lavorare in progetti dove agenti IA svolgono azioni attive al posto tuo (quindi non meri scambi di messaggi testuali come siamo abituati a vedere), e mi sono chiesto più volte chi si assumerebbe la responsabilità nel caso in cui questi agenti, agendo per conto di chi ha fatto la richiesta, fraintendessero un’istruzione e causassero dei danni. Non ci sono leggi perché certi modelli non sono arrivati al pubblico, ma ci si sta lavorando e quando saranno nel mercato non penso che la regolamentazione riuscirà a stare al passo: il mio timore è che vi saranno dei vuoti normativi per relativamente molto tempo. Cosa si fa se un governo decide di svolgere determinate azioni criminali con l’escamotage di un agente IA che le fa al posto loro? Di chi è la responsabilità giuridica? Vedo spesso, soprattutto a sinistra, una certa aggressività e rifiuto nei confronti dell’intelligenza artificiale, che capisco a pieno, e condivido anzi. Il problema è che questa valanga ormai ha iniziato la sua discesa da un bel po’, e non credo che riusciremo a riportare la neve a vetta. Capisco l’astio e il rifiuto, ma voltarle le spalle e ignorarla non è più – forse(?) – una soluzione, bisogna capire come arginarla.

Qui il PDF

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *