Golpes digitais mais eficientes
Especialistas afirmam a inteligência artificial pode aumentar os riscos
Escute essa reportagem
O aprimoramento da Inteligência Artificial (IA) traz, sem dúvida, benefícios à sociedade, mas, por outro lado, abre caminho para desafios à segurança dos usuários. De acordo com especialistas, os golpes digitais estão mais eficientes: mensagens, áudios, vídeos e e-mails falsos, por exemplo, se tornaram acreditáveis e bem elaborados.
Ao mesmo tempo em que os cibercriminosos encontram novas formas de enganar pessoas e organizações, as defesas contra crimes virtuais têm ficado mais complexas e caras, alerta o professor da unidade de computação e sistemas da Faesa, Howard Roatti. Para ele, nunca foi tão importante buscar informação para se proteger.
“A IA está se tornando cada vez mais poderosa e acessível, e isso está criando novas oportunidades para os criminosos. Por isso, as organizações e as pessoas precisam estar mais atentas aos riscos e tomar medidas para se proteger”.
O professor alerta, ainda, que a automatização de tarefas antes realizadas por humanos pode permitir que golpistas cometam mais crimes em menos tempo.
Para os crimes em ambiente virtual, o potencial agressor encontra um espaço que o permite agir, muitas vezes, sob anonimato, tornando muito mais difícil a repressão da prática criminosa e a punição, lamenta o advogado Sandro Câmara, especialista em Direito Público e Criminal.
“A lei penal brasileira evoluiu na busca de enquadrar certas práticas antes criminalmente atípicas. Há, no entanto, a necessidade de um aperfeiçoamento mais eficiente não só da legislação penal, mas das próprias ferramentas de investigação e persecução penal”.
Para lidar com o lado sombrio da inteligência artificial (IA), os Estados Unidos e a União Europeia já discutem medidas para a proteção dos usuários e para o combate dos crimes virtuais, pontua a socióloga e advogada Layla Freitas.
“Não temos a educação digital necessária para evitar que nos tornemos vítimas desses golpes, principalmente quando falamos de idosos, de jovens e de pessoas distantes do mundo digital. Precisamos focar na cidadania digital e na educação, sem nos esquecer de construir formas de penalizar criminosos e de medidas para a prevenção aos golpes”.
Ambiente inseguro para mulheres
As desigualdades sociais ocupam espaço em diferentes territórios, inclusive, na internet. Com a Inteligência Artificial (IA) mais acessível, o ambiente virtual tende a ser mais inseguro para minorias sociais, especialmente mulheres, segundo especialistas. Tanto que eles já preveem um aumento de crimes de ódio e de violência de gênero.
Algumas famosas, como a atriz Scarlett Johansson, a cantora Taylor Swift e a atriz Isis Valverde, por exemplo, foram vítimas de cibercriminosos, que utilizaram a inteligência artificial para fazer montagens de falsos nudes com os rostos das famosas.
A ausência de uma norma legal efetiva contra crimes cometidos na internet, além de falhas no Marco Legal da Internet, que não garante uma prevenção e fiscalização efetiva desses crimes, são alguns dos motivos que estruturam a insegurança das usuárias, de acordo com a socióloga, advogada e pesquisadora em raça e gênero Layla Freitas.
“Além de serem casos em que quem comete os crimes acredita na impunidade por conta da 'invisibilidade' cuja esfera virtual potencializa, vemos que essas pessoas, crendo nisso, se sentem mais aptas para realizar práticas que já são comuns na nossa sociedade, como a violência doméstica e de gênero”.
Análise
"Processo exponencial da IA acende alerta ético"
“A Inteligência Artificial (IA) é uma ferramenta poderosa que revolucionou inúmeras esferas da sociedade, proporcionando avanços extraordinários em áreas como medicina, indústria e comunicação.
Contudo, esse progresso exponencial também acende um alerta ético, especialmente no contexto da cibersegurança.
À medida que a IA evolui, seu uso malicioso se torna uma preocupação crescente. A automação de processos, embora eficiente, pode ser explorada por indivíduos mal-intencionados para perpetrar crimes cibernéticos de maneiras mais sofisticadas.
Hackers podem usar algoritmos avançados para contornar sistemas de segurança, comprometendo dados pessoais e financeiros.
A questão ética central reside na responsabilidade. Quem é responsável quando uma IA é utilizada para prejudicar outros? Os desenvolvedores, os usuários ou as próprias máquinas? Estabelecer parâmetros éticos torna-se imperativo para mitigar os riscos associados ao uso malicioso da IA.
Ademais, a privacidade enfrenta um desafio sem precedentes. Isso levanta questões sobre até que ponto a vigilância automatizada é aceitável em uma sociedade que valoriza a liberdade e a privacidade.”
Comentários