I dipendenti di Meta stanno avendo difficoltà a digerire l'IA. Chi l'avrebbe mai detto?

I dipendenti di Meta stanno avendo difficoltà a digerire l'IA. Chi l'avrebbe mai detto?

      Unsplash

      

      

      

       Se volevi un'istantanea di come appare quando un gigante tecnologico cerca di forzare il suo personale verso un futuro AI, non cercare oltre Meta in questo momento. L'azienda che ha costruito il suo impero conoscendo tutto sui suoi utenti ha rivolto quel stesso appetito verso l'interno, e i suoi dipendenti non sono felici di questo. Il mese scorso, Meta ha informato silenziosamente decine di migliaia di suoi lavoratori negli Stati Uniti che i loro laptop aziendali avrebbero iniziato a monitorare le loro battute di tasti, i movimenti del mouse, i clic e l'attività dello schermo. Lo scopo era quello di alimentare quei dati comportamentali nei modelli AI di Meta affinché potessero imparare come le persone usano effettivamente i computer. La reazione è stata immediata: nel giro di poche ore, i thread di commento interni sono stati inondati di rabbia, confusione e più di cento reazioni emoji che non lasciavano molto all'immaginazione su come si sentissero i dipendenti.

      Quando un manager ingegneristico ha chiesto come disattivare il monitoraggio, il chief technology officer di Meta, Andrew Bosworth, ha avuto una risposta diretta: non c'era modo di disattivarlo, almeno non su un laptop aziendale. Questa è la stessa azienda che sta anche legando l'uso degli strumenti AI alle valutazioni delle prestazioni, conducendo "Settimane di Trasformazione AI" obbligatorie per riqualificare il suo personale e costruendo dashboard interne che gamificano quanti token AI i dipendenti consumano in un giorno — una metrica così aggressivamente monitorata che alcuni lavoratori hanno iniziato a costruire agenti AI per gestire i loro altri agenti AI. Tutto questo ha iniziato a somigliare a un ciclo di feedback che si mangiava da solo.

      I licenziamenti hanno solo peggiorato tutto

      Niente di tutto ciò sta accadendo in un vuoto. Il 17 aprile, è emersa la notizia che Meta stava pianificando di tagliare circa il 10% della sua forza lavoro — circa 8.000 persone — con la prima ondata programmata per il 20 maggio. I dipendenti che avevano trascorso settimane a essere incoraggiati ad abbracciare l'AI, a formarsi con l'AI, e ora avevano il loro comportamento informatico raccolto per addestrare l'AI, si stavano improvvisamente chiedendo se avessero trascorso quel tempo a costruire i propri sostituti. Il tempismo era, per dirla generosamente, orribile. I post interni descrivevano l'umore come "incredibilmente demoralizzante." Almeno tre siti web di conto alla rovescia sono apparsi, monitorando i giorni fino alla data dei licenziamenti. I dipendenti hanno circolato meme nichilisti. Un post interno popolare recitava semplicemente: "Non importa."

      Josh Edelson/Getty Images / Meta

      Mark Zuckerberg ha affrontato la raccolta dei dati in una riunione aziendale, inquadrandola non come sorveglianza ma come un modo per insegnare all'AI come "le persone intelligenti usano i computer per portare a termine compiti." Ha anche notato che l'AI è "probabilmente uno dei campi più competitivi della storia" — una frase che ha avuto un impatto diverso per le persone sedute in un ufficio, chiedendosi se avrebbero ancora avuto un lavoro tra tre settimane.

      Questo è solo un'anteprima di ciò che sta arrivando ovunque

      Ciò che sta accadendo in Meta non è limitato a Meta; è solo più avanti rispetto alla maggior parte. Microsoft, Coinbase e Block hanno tutti fatto mosse simili di recente, ristrutturandosi attorno all'AI che ha portato a licenziamenti e attriti interni. La differenza è che Meta sta facendo tutto questo simultaneamente e su larga scala: riqualificazione dei lavoratori, sorveglianza del loro comportamento, legare la sicurezza del lavoro a metriche di adozione dell'AI e riduzione del personale per finanziare l'intero sforzo.

      Mariia Shalabaieva / Unsplash

      Non c'è un modo pulito per fare tutto questo. Una rivolta dei dipendenti sul monitoraggio delle battute di tasti in una delle aziende tecnologiche più potenti del mondo — una che sta, tra le altre cose, attivamente costruendo sistemi AI progettati per monitorare e comprendere il comportamento umano — è una sua forma di ironia. Meta ha trascorso anni convincendo miliardi di persone a condividere i propri dati volontariamente. Convincere i propri dipendenti a farlo si sta rivelando notevolmente più difficile.

      

      

      

      

      

      

      

      

      

      

       Shimul è un collaboratore di Digital Trends, con oltre cinque anni di esperienza nel settore tecnologico.

      

      

      

      

      

      

       Sensore delle dimensioni di un chicco di riso potrebbe dare ai robot un tocco delicato e tenerli lontani dal rompere le cose

      

       I robot sono incredibilmente precisi, ma essere delicati non è sempre il loro punto forte. Una macchina che può costruire un'auto con un'accuratezza quasi perfetta può comunque applicare troppa pressione quando lavora in luoghi in cui anche il più piccolo errore conta, come all'interno di un occhio umano o durante un intervento chirurgico delicato. È per questo che i ricercatori della Shanghai Jiao Tong University stanno sviluppando un nuovo tipo di sensore di forza che potrebbe aiutare i robot a "sentire" ciò che stanno toccando in modo più accurato.

      Il sensore è minuscolo, circa della dimensione di un chicco di riso con un diametro di soli 1,7 millimetri, rendendolo abbastanza piccolo da adattarsi all'interno di strumenti chirurgici avanzati. Ciò che lo rende particolarmente interessante è che non si basa su elettronica tradizionale. Invece, utilizza la luce per misurare la forza da ogni direzione, inclusa la pressione, i movimenti di scivolamento e la torsione. Ecco come funziona. All'estremità di una fibra ottica si trova un materiale morbido che cambia leggermente forma quando entra in contatto con qualcosa. Quella piccola deformazione altera il modo in cui la luce viaggia attraverso il sensore. Il modello di luce alterato viene quindi inviato attraverso le fibre ottiche a una telecamera, che lo cattura come un'immagine. I ricercatori utilizzano quindi un modello di apprendimento automatico per studiare quei modelli di luce e tradurli in letture di forza precise. In termini semplici, il sistema impara a "leggere" il tatto solo attraverso la luce, senza bisogno di un sacco di fili o di più sensori separati stipati in uno spazio così piccolo.

      

       Leggi di più

      

      

      

       Sci-fi ha azzeccato i gadget, ma sbagliato le vibrazioni

      

       Sci-fi ha azzeccato molti dispositivi tecnologici per i consumatori, ma la realtà continua a offrire la versione utile e compromessa del sogno

      

       Recentemente stavo aspettando un Uber quando il GPS ha deciso di mentire per sport. L'auto era da qualche parte nelle vicinanze, io ero da qualche parte nelle vicinanze, e in qualche modo entrambi eravamo intrappolati in quel rituale moderno di pin sbagliati, curve lente, onde vaghe e messaggi di "sono qui" che non aiutano assolutamente nessuno.

      È stato allora che ho avuto un pensiero molto ragionevole: questo è esattamente dove un ologramma di una gigantesca freccia che punta verso di me sarebbe utile.

      

       Leggi di più

      

      

      

       La fuga di notizie su Gemini Intelligence di Google mi entusiasma, ma per favore non quel nome

      

       Gemini Intelligence suona come il cugino Android di Apple Intelligence

      

       Mentre Google sta aiutando Apple ad aggiornare la sua AI, il gigante della ricerca potrebbe aver preso un po' troppo gusto per il nome Apple Intelligence. Una nuova fuga di notizie condivisa da Mysticleaks su Telegram sembra mostrare "Gemini Intelligence" all'interno del software di Google in esecuzione su quello che sembra uno smartphone Pixel.

      Per ora, è meglio prendere la fuga con un pizzico di sale fino a quando non ci sarà qualcosa di più concreto. Ma se il video è accurato, Google potrebbe stare preparando la funzione per la serie Pixel 11, che dovrebbe essere lanciata intorno ad agosto 2026.

      

       Leggi di più

I dipendenti di Meta stanno avendo difficoltà a digerire l'IA. Chi l'avrebbe mai detto? I dipendenti di Meta stanno avendo difficoltà a digerire l'IA. Chi l'avrebbe mai detto? I dipendenti di Meta stanno avendo difficoltà a digerire l'IA. Chi l'avrebbe mai detto? I dipendenti di Meta stanno avendo difficoltà a digerire l'IA. Chi l'avrebbe mai detto? I dipendenti di Meta stanno avendo difficoltà a digerire l'IA. Chi l'avrebbe mai detto? I dipendenti di Meta stanno avendo difficoltà a digerire l'IA. Chi l'avrebbe mai detto? I dipendenti di Meta stanno avendo difficoltà a digerire l'IA. Chi l'avrebbe mai detto?

Altri articoli

I dipendenti di Meta stanno avendo difficoltà a digerire l'IA. Chi l'avrebbe mai detto?

Meta sta monitorando i tasti premuti dai dipendenti, collegando l'uso dell'IA alle valutazioni delle prestazioni e licenziando migliaia di persone — tutto in una volta — e in qualche modo sembra sorpresa che il morale sia in caduta libera.