Una donna asiatica chiede a Dio: “Signore, aiutami a sembrare più professionale!”. E Dio la fa diventare… bianca!

@aitech

Non è una barzelletta razzista, ma è quanto avvenuto a Rona Wang, una laureata asiatico-americana del MIT, che ha fatto questa richiesta all’editor di immagini Playground AI (nella parte di Dio…).
Questo dimostra il bias razzista è uno dei problemi delle AI politicamente più imbarazzanti…

https://www.businessinsider.com/student-uses-playrgound-ai-for-professional-headshot-turned-white-2023-8

  • suoko
    link
    fedilink
    Italiano
    arrow-up
    1
    ·
    1 year ago

    Non è stupida la gente che le addestra, i dati sono dati e non puoi metterti a vagliare ogni singola immagine per vedere se rappresenta statisticamente un problema per questioni di gender, di sessismo, o etnico. Usiamo questo specchio piuttosto, e guardiamoci. Per assurdo può essere configurato per fare in modo che questi bias vengano appianatii così che generi immagini “intelligenti”

      • CuccU@livellosegreto.it
        link
        fedilink
        arrow-up
        1
        ·
        1 year ago

        @nardo86 @Suoko Il mio pensiero é quello che ho espresso, e, con parole diverse, state comunque arrivando alla stessa conclusione.
        La AI puó essere il centralino automatico piú sofisticato al mondo, ma é chi riempie il “nastro” che fa la differenza.
        Partiamo comunque dal presupposto che le infami imprese proprietarie hanno VOLUTAMENTE tralasciato le semplici ma valide leggi della robotica.
        Hanno peró lasciato la “Direttiva 4” di Robocoppiana memoria.

        • suoko
          link
          fedilink
          Italiano
          arrow-up
          0
          ·
          1 year ago

          È un’evoluzione in fondo, ora abbiamo le IA specchio della società, piu avanti avremo le IA evolute che rappresenteranno una società evoluta. Non siamo passati dalla caverna all’uomo coltivatore dall’oggi al domani