@gelato_al_pollo nah… Blengino non è un Gramellini qualsiasi che fonda le proprie riflessioni su aneddoti non verificati
@Chamaeleon purtroppo la criminalizzazione di ciò che prima era legale porta molto spesso a comportamenti irrazionali e grotteschi
@paoloredaelli Il problema è il client che conterrà degli scanner locali per l’analisi di testi e contenuti multimediali, ovviamente soggetti a errori, che esporranno alla vista dei dipendenti dei fornitori di servizio e delle forze di polizia, tutte le conversazioni segnalate come sospette
@Dabliu esatto, ma se pensi che il SSN è sottoposto a un deliberato processo di impoverimento e distruzione e che l’ordine dei medici impiega anni anche solo per decidere se uno stregone ciarlatano è uno stregone ciarlatano, sembrerebbe che l’unico attore in grado di incidere positivamente sulla questione sia, come al solito, l’autorità garante per la protezione dei dati personali…
@qwe Sinceramente non mi ricordavo di questo dettaglio che, se confermato, Sarebbe ancora più inquietante. A parziale giustificazione di Google (parziale eh, Google è uno dei più accesi sostenitori di questo tipo di controlli sciagurati), c’è da dire che per un provider di servizi che offre spazio web agli utenti, il fatto che a causa di alcune immagini si rischia il sequestro dei server (e nel caso del Cloud un sequestro dei server può significare un interruzione di servizio su tutti i server Che condividono quel contenuto!), comporta un pericolo estremamente grande per una società abituata a fatturare continuativamente cifre immense…
Tutto questo però non rende questo tipo di provvedimenti più digeribili: chi se ne frega dell’interesse delle aziende quando vengono messi a rischio i diritti delle persone!
> Da specificare che non ha mandato “foto del figlio nudo” (che potrebbe essere grave
)
Tu dici che non è il titolo giusto, ma in realtà quel titolo mette subito il lettore in condizione di pensare che quel padre sia colpevole e in tal modo si capisce il senso di #chatcontrol: tu mandi un messaggio che credi essere riservato e il sistema lo intercetta senza mandato di alcun magistrato, lo interpreta come un messaggio CSAM e fine della storia.
Nel caso migliore tu passi una brutta settimana, ma poi ti si sistema tutto e fai finta che non sia successo nulla, che è la specialità che ogni suddito sviluppa per sopravvivere.
Nel caso peggiore passi i guai, perdi tutto e magari si viene anche a sapere in giro che mandi foto di bambini nudi.
Eh no, mi dispiace, ma il titolo è giusto
> Certo mi sembra una cosa davvero troppo enorme perché si avveri così in sordina
Infatti è per questo che noi attivisti digitali, che di solito non scendiamo mai in piazza, abbiamo capito che se non lo avessimo fatto noi, non l’avrebbe mai fatto nessuno! 😐
> Piuttosto se ho capito bene l’applicazione di questo protocollo sarebbe (ancora) su base volontaria
Ora sì e questa è già una deroga alla direttiva e-privacy, ma quella era chatcontrol 1, di cui ovviamente non si è parlato affatto; ma se passa questo provvedimento, i fornitori dei servizi saranno OBBLIGATI
> non ho dubbi che Meta e compagnia sarebbero in prima linea, ma nessun servizio di messaggistica/e-mail private e posizionato sul mercato come tale si sognerebbe mai di fare una cosa del genere, sarebbe contro il loro business.
In realtà è soprattutto Google a sostenere questo provvedimento (e l’ha messo in pratica già con i suoi servizi), ma altre bigtech non sono molto contente e addirittura Apple, che in un primo momento aveva aderito, ha cambiato idea.
Esattamente: come dice @leviticoh in risposta a @AnxiousDuck in questo momento non si parla (ancora) di creare backdoor alla crittografia.
Il metodo individuato è far sì che ogni client disponga di un sistema che setaccia automaticamente ogni frase, ogni immagine e ogni video, per individuare contenuti che possano far pensare ad abusi su minori.
Ogni frase che faccia pensare alla vendita o all’acquisto di bambini o all’adescamento o a frasi troppo affettuose o alla ricerca/invio/commenti a foto e video di minori; ogni foto che ritragga un minore (o stimato come tale) in un contesto problematico (corpo troppo scoperto, pose tipiche della pedopornografia, etc); ogni video che risponda a schemi noti del mercato pedopornografico; tutto questo verrà
Insomma tutto il sexting tra maggiorenni giovani o quello tra fidanzatini minorenni, tutti i giochi di ruolo sessuali, i video equivocabili e tutto ciò che il sistema IA riconoscerà come problematico in base al suo schema (perché uno schema di intelligenza artificiale può impazzire e riconoscere problematico anche l’atto di compravendita di una barca che si chiama “bimba” o la foto di una banana e una pesca), tutto ciò potrà essere guardato prima dall’addetto di whatsapp, telegram, google e poi da qualche agente della postale…
La rottura della crittografia invece è un proposito che si sta tentando di perseguire nel gruppo dei 5+2 (USA, UK, Canada, Australia, Nuova Zelanda + India e Giappone) e di cui qualcuno inizia a parlare anche in Europa. In questo caso, la motivazione nobile non saranno più i bambini ma il “😱TERRORISMO!😱”… 😎😎😎
@UprisingVoltage allora Speriamo che nel posto in cui ti troverai in quei giorni, potrai trovare un sit in! 😁
@_aid_85_ c’è chi ama la privacy (femministe, persone lgbtqi+, sostenitori del diritto all’autodeterminazione, chi si preoccupa dei migranti) ma non lo sa.
Quanto all’invito, lo condividiamo in toto!
@quinta @gualdo