Um estudante foi abordado sob a mira de armas após um sistema de inteligência artificial identificar erroneamente um pacote de Doritos como uma arma de fogo. O caso ocorreu em 20 de outubro, no Condado de Baltimore, nos Estados Unidos.
Taki Allen, jogador do time de futebol da escola, estava saindo do treino com amigos quando foi surpreendido pela chegada de diversos carros da polícia. “Foram uns oito carros. Eles mandaram eu deitar no chão e me algemaram”, contou o estudante à emissora WBAL-TV 11 News. Segundo ele, os agentes o revistaram e não encontraram nada suspeito.
+ Chatbots de IA confundem fatos com opinião, revela estudo
Minutos depois, os policiais mostraram a imagem que havia acionado o alerta. O sistema de IA da empresa Omnilert, responsável por monitorar câmeras de segurança das escolas locais, havia interpretado o reflexo e o formato do pacote de salgadinhos no bolso de Allen como uma possível arma. “Eles me mostraram a foto e disseram que parecia uma arma. Eu disse: ‘Não, são batatas fritas'”, relatou o jovem.
A Omnilert reconheceu o episódio como um “falso positivo”, mas afirmou que o sistema “funcionou conforme o esperado”, destacando que o objetivo é “garantir segurança por meio de verificação humana rápida”. As Escolas Públicas do Condado de Baltimore divulgaram nota reiterando o compromisso com a segurança e ofereceram apoio psicológico aos alunos envolvidos.
Allen, que não se feriu, afirmou que ainda teme voltar às aulas após o incidente.