Le 5 regole per non far scartare il tuo curriculum dall’intelligenza artificiale
Il nostro curriculm potrebbe essere scartato ancor prima di raggiungere lo sguardo umano. Sempre più aziende stanno integrando l'intelligenza artificiale nel processo di reclutamento. Questo vuol dire che sarà una macchina a scartare o portare avanti la candidatura nel primo step di selezione. E così cambiano le regole, e per rimanere in gioco servono nuovi trucchi. Per questo abbiamo realizzato una breve guida. Quali termini usare, l'impostazione grafica da scegliere, la lingua, i caratteri preferiti dall'intelligenza artificiale. Come sempre, ci sono anche le scorciatoie, per esempio le "parole fantasma" che solo le macchine riescono a leggere.
Partiamo dalla base. Bisogna "assicurarsi che le parole chiave della posizione appaiano sul curriculum, perché l'algoritmo funziona come un dizionario per abbinare descrizioni diverse", ha spiegato Jaume Alemany, co-fondatore della società di reclutamento Etalentum a El Pais. Per trovare le definizioni giuste il modo più semplice è analizzare la terminologia usata dalle aziende, guardare per esempio quelle usate nell'annuncio di lavoro, o sul profilo LinkedIn.
È importante anche distinguere il luogo di provenienza dalla città dove si sta cercando lavoro, altrimenti la macchina potrebbe scartare automaticamente il curriculum. Se sono nata a Roma ma voglio essere assunta a Milano, anche a rischio di sembrare ridondante è meglio specificarlo. Non solo, la lingua, per l'IA, è un fattore determinante. "A seconda della posizione per cui ti stai candidando, è generalmente consigliabile scrivere il tuo curriculum in due o tre lingue, soprattutto in inglese, perché ci sono macchine che sono addestrate a leggere quella lingua", ha aggiunto Alemany. Meglio usare caratteri standard come Arial o Verdana perché le macchine non li leggono tutti allo stesso modo, ed evitare grafici, colonne o diagrammi. Confondono i software.
C'è poi un ultimo trucco, il più controverso. Viene chiamato white fonting, e usa liste di parole chiave per influenzare le macchine. Come dicevamo, i termini giusti sono cruciali. Per questo alcuni dipendenti stanno incollando liste di parole pertinenti sul curriculum, le colorano di bianco per confonderle con il foglio, e poi li inviano. L'obiettivo è far leggere all'IA il testo invisibile e far emergere il curriculum in modo tale che arrivi allo step successivo: le selezioni "umane". A quel punto la candidatura sembrerà normale e i reclutatori non riusciranno a leggere le parole nascoste analizzate invece dall'intelligenza artificiale. Secondo gli esperti del lavoro questa scorciatoia, però, è rischiosa.
Come funzionano le IA per selezionare i candidati
L'obiettivo è velocizzare i processi, le macchine valutano i curriculum dando priorità ai candidati considerati idonei in base al curriculum, all'esperienza e alle competenze. Diverse IA, per esempio, hanno filtri per assegnare automaticamente la priorità ai candidati interni. I sistemi possono anche rifiutare automaticamente i candidati, ma prima è necessario impostare i parametri. SmartRecruiter ha spiegato al Washington Post che consente ai datori di lavoro di impostare parametri specifici per restringere i candidati.
Molti datori però hanno rassicurato spiegando che c'è sempre un occhio umano che rivede ogni candidatura, per assicurarsi di non perdere un candidato qualificato. "La gente presume che una scatola nera malvagia stia esprimendo giudizi su di loro", ha spiegato sempre al Post Jon Stross, presidente e co-fondatore di Greenhouse, azienda che fornisce software per le assunzioni. "Quello che sta realmente accadendo è che l'azienda sta ricevendo molte proposte e cerca un modo per analizzarle tutte".
I rischi dietro i caratteri bianchi
Secondo Tomas Chamorro-Premuzic, responsabile dell'innovazione presso la società di personale ManpowerGroup, le parole fantasma "potrebbero contribuire solo tra il 10% e il 15%" sulla possibilità di essere selezionati. Non solo, in alcuni casi i curriculum vengono inseriti in applicazioni che potrebbero cambiare il colore dei caratteri, e a quel punto le parole in bianco, prima mimetizzate con il foglio, emergerebbero, "e così il reclutatore potrebbe vedere tutto ciò quello che è stato incollato nel cv." Ci sono invece alcuni sistemi IA, come l'Eightfold AI di Santa-Clara, in California, che leggerebbero le parole chiave di colore bianco come testo estraneo, penalizzando quindi il candidato.
Cosa succede se i datori scoprono parole fantasma
C'è una buona probabilità che i datori controllino la presenza di caratteri bianchi all'intero curriculum. "Se sei qualificato, sei qualificato", ha detto al Post Tejal Wagadia, reclutatrice tecnica senior per una grande azienda tecnologica, non è autorizzata a rivelare il suo datore di lavoro. "Ma se scoprissi che qualcuno ha usato le parole bianche, avrei una conversazione seria con loro sul perché." Marisol Maloney, un reclutatrice tech presso l'azienda Firebird AS ha aggiunto: "Vuoi essere affidabile fin dall'inizio? Sappi che la verità viene sempre a galla".
I problemi di discriminazione
L'intelligenza artificiale applicata alla selezione dei curriculum "può mettere a repentaglio i diritti fondamentali di alcuni lavoratori e aumentare il rischio di discriminazione basata su genere, etnia, orientamento sessuale, religione o semplicemente gusti personali, un impatto che va oltre il mondo digitale e può ampliare il divario sociale, soprattutto tra i gruppi più vulnerabili”, ha spiegato la direttrice di Digital Future Society, Cristina Colom a El Pais.
Già nel 2017 Amazon aveva testato un nuovo strumento, addestrato sui curriculum vitae dell’azienda, per classificare i candidati. Il risultato è stato disastroso, in pratica ha selezionato solo uomini declassando e penalizzando i Curriculum Vitae delle donne. L’anno scorso, invece, uno studio dell'Università di Cambridge ha dimostrato che l'intelligenza artificiale è un intermediario pericoloso che “costruisce associazioni tra parole e corpi delle persone” producendo il “candidato ideale”. In poche parole si viene scartati se non si rientra in quello che l’intelligenza artificiale considera il prototipo perfetto.