Una donna asiatica chiede a Dio: “Signore, aiutami a sembrare più professionale!”. E Dio la fa diventare… bianca!

@aitech

Non è una barzelletta razzista, ma è quanto avvenuto a Rona Wang, una laureata asiatico-americana del MIT, che ha fatto questa richiesta all’editor di immagini Playground AI (nella parte di Dio…).
Questo dimostra il bias razzista è uno dei problemi delle AI politicamente più imbarazzanti…

https://www.businessinsider.com/student-uses-playrgound-ai-for-professional-headshot-turned-white-2023-8

  • suoko
    link
    Italiano
    110 months ago

    Non è stupida la gente che le addestra, i dati sono dati e non puoi metterti a vagliare ogni singola immagine per vedere se rappresenta statisticamente un problema per questioni di gender, di sessismo, o etnico. Usiamo questo specchio piuttosto, e guardiamoci. Per assurdo può essere configurato per fare in modo che questi bias vengano appianatii così che generi immagini “intelligenti”

      • CuccU
        link
        fedilink
        110 months ago

        @nardo86 @Suoko Il mio pensiero é quello che ho espresso, e, con parole diverse, state comunque arrivando alla stessa conclusione.
        La AI puó essere il centralino automatico piú sofisticato al mondo, ma é chi riempie il “nastro” che fa la differenza.
        Partiamo comunque dal presupposto che le infami imprese proprietarie hanno VOLUTAMENTE tralasciato le semplici ma valide leggi della robotica.
        Hanno peró lasciato la “Direttiva 4” di Robocoppiana memoria.

        • suoko
          link
          Italiano
          010 months ago

          È un’evoluzione in fondo, ora abbiamo le IA specchio della società, piu avanti avremo le IA evolute che rappresenteranno una società evoluta. Non siamo passati dalla caverna all’uomo coltivatore dall’oggi al domani