Le politiche sanitarie alimentate dall'IA stanno privando i bisognosi in uno dei paesi più poveri del mondo.
Un sistema di intelligenza artificiale difettoso sta aumentando i costi medici per le famiglie più povere del Kenya
Il Kenya prometteva un accesso più ampio a un'assistenza sanitaria più accessibile. Ma una nuova indagine ha rivelato che il suo sistema basato su algoritmi sta rendendo la vita più difficile per le persone che avrebbe dovuto aiutare di più. Secondo quanto riportato da The Guardian, Africa Uncensored e Lighthouse Reports, il nuovo sistema dell'Autorità Sanitaria Sociale del Kenya utilizza un algoritmo di apprendimento automatico predittivo per stimare quanto le persone dovrebbero pagare per l'assicurazione sanitaria pubblica.
Il sistema è stato lanciato per la prima volta nell'ottobre 2024 come parte della promessa del presidente William Ruto di espandere l'accesso all'assistenza sanitaria per il grande lavoro informale del Kenya.
Come l'algoritmo sta danneggiando i keniani
Un'infermiera assiste un giovane paziente mentre un tutore osserva in un reparto ospedaliero. Speak Media Uganda / Pexels
Il problema è come il sistema calcola ciò che le persone possono permettersi. Il sistema SHA del Kenya utilizza un test dei mezzi proxy, che è un metodo che stima il reddito basato su dettagli domestici come materiali del tetto, servizi igienici, bestiame, dimensione della famiglia e altre condizioni di vita. Questa indagine ha scoperto che il sistema ha sovrastimato i redditi delle famiglie più povere, mentre li ha sottostimati per i cittadini più ricchi.
Un volontario SHA ha descritto di aver visitato famiglie a Nairobi e di aver visto persone che già faticavano a permettersi il cibo ricevere premi ben oltre le loro possibilità. Alcuni affrontavano spese pari al 10% o 20% dei loro piccoli redditi, secondo il rapporto.
Quando una fattura blocca il trattamento
@AfUncensored @LHreports si sono proposti di verificare che, mentre il Kenya implementava il suo nuovo sistema sanitario, il processo di determinazione dei premi assicurativi fosse equo. Ciò che abbiamo trovato invece è stato un algoritmo che sovraccaricava coloro che avevano di meno e sottocaricava coloro che avevano di più.…— John-Allan Namu (@johnallannamu) 4 maggio 2026
Le conseguenze sono reali e la situazione sembra grave. I keniani senza assicurazione privata che non possono pagare i loro premi SHA rischiano di essere respinti dalle strutture sanitarie o di ricevere fatture ospedaliere elevate. Il rapporto cita racconti di persone gravemente malate che hanno perso trattamenti perché il sistema ha detto che dovevano più di quanto potessero pagare. Una madre single ha detto che il suo contributo mensile era fissato a 3.500 scellini kenyoti, mentre altri hanno segnalato grandi aumenti rispetto a quanto pagavano in precedenza sotto il vecchio sistema. Quindi la nuova politica sta costando vite.
Sebbene Ruto abbia descritto il sistema come alimentato dall'IA, il rapporto osserva che non sta utilizzando un'IA generativa in stile ChatGPT. Utilizza l'apprendimento automatico predittivo, costruito attorno a uno strumento politico vecchio di decenni che è stato a lungo criticato per identificare erroneamente chi ha diritto all'aiuto. Molti hanno definito questo sistema difettoso e iniquo anche prima della sua implementazione.
Più di 20 milioni di persone sono registrate per SHA, ma solo circa 5 milioni pagano regolarmente i loro premi. Gli ospedali segnalano anche grandi deficit poiché i rimborsi rimangono non pagati. Questo è il pericolo dei sistemi di welfare algoritmici.
Vikhyaat Vivek è un giornalista tecnologico e recensore con sette anni di esperienza nella copertura dell'hardware di consumo, con un focus su…
Pensi che la musica sia la più colpita dalla spazzatura? L'IA ha inquinato profondamente i podcast, così come
I podcast AI stanno trasformando le piattaforme audio in fabbriche di spazzatura
La spazzatura dell'IA ha già inondato i feed video, i dibattiti sui giochi, il codice software e i risultati di ricerca. Ora lo stesso contenuto creato con poco sforzo si sta spostando nei podcast.
La musica di solito domina il dibattito sulla spazzatura dell'IA, ma il problema dei podcast potrebbe essere più difficile da individuare e più difficile da ripulire. Gli strumenti di IA possono ora creare, caricare e persino monetizzare interi spettacoli molto più velocemente rispetto agli studi di podcast tradizionali.
Leggi di più
Il leggendario laboratorio di Oak Ridge ha appena sviluppato un dispositivo portatile che rileva il GPS spoofing dal vivo
I ladri possono dirottare il tuo GPS e far sembrare tutto perfettamente normale. Gli scienziati hanno appena costruito la soluzione.
Ci fidiamo del GPS come ci fidiamo della gravità. Funziona e ci porta dove vogliamo andare. Ma cosa succederebbe se qualcuno potesse ingannarlo per mentirti, e tu non avessi assolutamente idea?
A differenza del jamming, che inonda il tuo GPS con rumore e ti fa sapere che qualcosa non va, lo spoofing invia segnali falsi che sembrano completamente legittimi. Potresti stare tracciando la tua auto o una spedizione e pensare che tutto vada bene quando in realtà la spedizione è stata indirizzata altrove, senza che tu ne sia a conoscenza.
Leggi di più
Uso l'IA ogni giorno — ecco 3 motivi per cui ho pagato per Claude invece di ChatGPT
Uso l'IA ogni singolo giorno, quindi avevo bisogno di qualcosa su cui potessi davvero contare, non solo di cui immergermi occasionalmente. A un certo punto, è diventato chiaro che se volevo quel tipo di coerenza, avrei dovuto pagarlo. La vera confusione è iniziata quando ho dovuto scegliere. Si trattava di ChatGPT e Claude. Ho usato ChatGPT per molto tempo e già comprende come penso e di cosa ho bisogno, il che lo ha reso una scelta confortevole. Ma più guardavo cosa potesse fare Claude, più difficile diventava quella decisione. Non era più una scelta ovvia.
Ho oscillato avanti e indietro per un po', valutando la familiarità rispetto alla capacità. Alla fine, ho deciso di optare per Claude. E con il senno di poi, non rimpiango affatto quella scelta.
Leggi di più
Altri articoli
Le politiche sanitarie alimentate dall'IA stanno privando i bisognosi in uno dei paesi più poveri del mondo.
Un'indagine ha rilevato che il sistema di assicurazione sanitaria basato sull'IA del Kenya sta sovrastimando i redditi delle famiglie povere, costringendo molti a pagare premi più elevati che non possono permettersi.
