Con una mossa che sembra uscita direttamente da Minority Report, la città di New York sta esaminando la possibilità di testare un nuovo sistema di telecamere della metropolitana in grado di prevedere comportamenti pericolosi sulle piattaforme della metropolitana prima che accada qualcosa.
La Metropolitan Transportation Authority (MTA) sta attualmente sperimentando sistemi basati sull'intelligenza artificiale per identificare i primi segnali di problemi in tempo reale. Questi sistemi sono progettati non per riconoscere i volti, ma per rilevare il comportamento, dai movimenti irregolari ai segni di angoscia o agitazione che potrebbero segnalare un incidente di fermento.
Secondo Michael Kemper, Chief Security Officer di MTA, l'obiettivo è la "prevenzione predittiva", che consente una risposta rapida da parte della sicurezza o della polizia prima che l'incidente si aggravi.
Kemper ha sottolineato durante una recente riunione sulla sicurezza dell'MTA che non si tratta di guardare le persone. Si tratta di osservare i segnali di avvertimento. Se il sistema di telecamere AI della metropolitana segnala qualcuno che agisce in modo irrazionale, potrebbe attivare un avviso che richiede l'intervento. Kemper ha osservato che l'agenzia sta attualmente lavorando con le aziende tecnologiche per determinare quali sistemi possono realisticamente funzionare nell'ambiente spesso caotico della metropolitana.
Queste nuove telecamere della metropolitana segnano la fase successiva di una strategia in evoluzione. Nel 2023, l'MTA ha rivelato di aver utilizzato l'intelligenza artificiale per monitorare l'evasione tariffaria, tracciando dove, quando e come i passeggeri saltavano il pagamento. Quest'ultimo passo si spinge oltre i confini, sfruttando il potenziale dell'IA per il supporto decisionale in tempo reale nella sicurezza pubblica.
Secondo quanto riferito, i funzionari dell'MTA hanno affermato che questo nuovo sistema di telecamere della metropolitana AI non utilizzerà il riconoscimento facciale. Un portavoce ha detto che vogliono essere molto chiari sul fatto che il sistema viene utilizzato per osservare il comportamento, non le persone. Questa è probabilmente una mossa per scongiurare i problemi di privacy, che spesso emergono quando l'intelligenza artificiale e la sorveglianza vengono menzionate allo stesso tempo.
Per ora, il progetto rimane in una fase pilota. Non sono stati condivisi dettagli su quali aziende tecnologiche siano coinvolte o su quando potrebbe verificarsi il pieno dispiegamento. Tuttavia, lo sforzo solleva alcune serie domande sull'etica, l'accuratezza e il rischio di esagerare.
Non sorprende vedere le telecamere della metropolitana AI spuntare a New York. L'unica domanda è se questo sistema farà molta differenza o se le persone lo troveranno invadente, un'invasione della privacy e il primo passo verso i droni alimentati dall'intelligenza artificiale che osservano ogni nostra mossa. Questa sollecitazione nei confronti di questa soluzione "avanzata" sembra osservare appieno i dettami del Trumpismo in cui privacy e diritti democratici vengono messi in secondo piano. Ci aspetta un nuovo "1984"? (Fortuna che in Europa abbiamo fatto scelte piu' etiche, citiamo gli innumerevoli studi che evidenzano falsi positivi con poveri e persone di colore)
New York sta esplorando l'intelligenza artificiale come "Minority Report" per prevedere il crimine prima che accada in metropolitana
Typography
- Smaller Small Medium Big Bigger
- Default Helvetica Segoe Georgia Times
- Reading Mode