
“Ils profitent de notre pauvreté” : derrière le boom des intelligences artificielles génératives, le travail caché des petites mains de l’IA
by MarkWhalbergsSon

“Ils profitent de notre pauvreté” : derrière le boom des intelligences artificielles génératives, le travail caché des petites mains de l’IA
by MarkWhalbergsSon
5 comments
>###La création d’algorithmes tels que ChatGPT ou Midjourney nécessite des quantités colossales de données, analysées par des humains. Des “annotateurs” indispensables mais souvent précaires, faiblement rémunérés et maintenus dans l’ombre.
Notons aussi que “les quantités colossales de données” ont à peu de choses prêt toutes été volées.
Pas exactement la même chose mais Amazon a fermé récemment ses magasins “self checkout” où soi-disant tout était fait via les caméras et la tech. En fait, y avait des milliers d’Indiens derrière qui vérifiaient les images.
Ils devaient payer plus de personnel au final pour faire ce que des caissiers normaux ferait mieux en étant sur place. Mais fallait vendre la technologie du truc…
Dans quelques temps on va voir pop des générateurs d’images par twitt’X et par Meta, où ils auront sauté l’étape “annotations” et auront juste pris les hashtag que les utilisateurs eux-mêmes ont mis sur leurs images.
Ça va être fun. 🙄
C’est peut être un avis impopulaire, mais ce travail caché n’est nécessaire qu’au lancement de ces modèles et au fur et à mesure il deviendra lui aussi obsolète. Et je suis persuadé que dans quelques années on ne verra plus ce genre d’articles, ces jobs ayant disparus.
L’objectif est de se passer à terme de ces “petites mains” lorsque les bases de données seront constituées. Une fois qu’elles le seront et que des modèles seront capable de refaire la tâche presque aussi bien pour 3 fois rien, pourquoi payer un humain pour le faire ?
D’ailleurs, on le voit déjà avec les technologies d’aujourd’hui. Pour entraîner un modèle de texte to speech, on ne demande plus aux gens de lire un texte, mais on prend un audio quelque part et on annote les phrases avec un modèle externe (Whisper par exemple) qui fait déjà le travail remarquablement bien pour 3 fois rien, des dixaines de fois plus vite et ce pour des dixaines de langues.
C’est la même chose pour les LLM une grande partie d’entre eux s’entraînent dès aujourd’hui sur des sorties d’autres LLM. Ça permet de spécialiser des machines à peu de frais.