Pesquisadores mostraram que modelos de IA baseados em aprendizado profundo, usados em tudo, desde carros autônomos até finanças e saúde, podem ser sabotados. Veja como.
O estudo demonstra que uma falha aparentemente trivial — um simples erro de digitação na memória do modelo — pode comprometer a performance de sistemas de IA. Os autores descrevem os mecanismos pelos quais isso ocorre e sugerem abordagens para mitigar o risco, como validação mais rigorosa de dados, auditoria de modelos e técnicas de robustez.