Desvendando o Impacto da Regulamentação das Inteligências Artificiais no Universo da Cibersegurança

admin

A regulamentação da inteligência artificial (IA) é essencial para garantir seu uso ético e seguro, especialmente em relação à cibersegurança. Países como o Brasil estão debatendo legislações para lidar com os desafios da IA, enfrentando questões sobre o equilíbrio entre inovação e proteção dos direitos dos cidadãos. Apesar dos desafios, é fundamental desenvolver regulamentações adaptadas às necessidades do país para enfrentar os futuros impactos da IA.

0 0
Read Time:3 Minute, 15 Second

Todo mundo que está na internet hoje precisa se preocupar com o futuro da inteligência artificial. Afinal, essa tecnologia irá se tornar cada vez mais onipresente na nossa vida e pode impactar em várias questões o nosso cotidiano.

De acordo com um levantamento feito pela Blaze Information Security, os gastos dos brasileiros com IA cresceram 120% em relação ao ano anterior. E a tendência é que isso só aumente: conviveremos cada vez com a automação nas tarefas comerciais e domésticas, análise de dados, algoritmos especializados no nosso comportamento, aplicativos que simulam vozes e imagens humanas, e assim por diante.

Tudo isso suscita novas demandas e questões – por exemplo, no que diz respeito à nossa cibersegurança. Tendo isso em mente, é preciso estar atento aos desafios que surgem e à regulação necessária para que seja sempre realizado um uso ético da nova tecnologia. Afinal, a IA, quando não moderada, também pode ser utilizada para aplicar novas modalidades de golpe, ameaçando ainda mais a vida dos cidadãos.

A legislação de IA pelo mundo

Várias nações estão hoje se debruçando sobre a questão da regulamentação da IA. Recentemente, representantes de 27 países (incluindo os da União Europeia, o Canadá e o Brasil, entre outros) se uniram para tentar elaborar diretrizes para o uso seguro de programas de inteligência artificial.

Na Europa, o Parlamento apresentou em junho de 2023 o AI Act, legislação com regras que devem ser adotadas pelos países signatários. Com a aprovação final, do projeto, ocorrida no dia 13 de março de 2024, estabeleceu-se a primeira legislação de IA do mundo.

O AI Act define a inteligência artificial como “um sistema baseado em máquinas, concebido para funcionar com níveis de autonomia variáveis que pode apresentar capacidade de adaptação após a implantação. Para objetivos explícitos ou implícitos e com base nos dados de entrada que recebe, conclui a forma de gerar resultados, tais como previsões, conteúdos, recomendações ou decisões que podem influenciar ambientes físicos ou virtuais”.

Dentre os fatores estabelecidos pelo AI Act, estão que os sistemas de IA sejam seguros, transparentes, rastreáveis, não discriminatórios e respeitem a privacidade das pessoas. Porém, especialistas defendem que ainda não está claro nesta lei como esses objetivos devem ser cumpridos. Há também a prerrogativa de que sistemas de inteligência artificial estejam sempre sob supervisão humana.

Isso tem estimulado que outras nações, incluindo aqui o Brasil, procurem estabelecer suas próprias regras. No país, há pelo menos quatro Projetos de Lei (PLs) buscando criar essa normativa. A ideia é que a regulamentação ajude a diminuir riscos causados pelo mau uso da IA, como a invasão da privacidade dos cidadãos, o roubo de dados e o desrespeito aos direitos de grupos minoritários.

Quais são os principais desafios jurídicos na regulamentação da IA?

Os projetos propostos por políticos brasileiros até o momento visam estabelecer uma legislação comum que se adeque às necessidades das partes interessadas. Mas é preciso tomar algumas decisões em relação a qual será o “nível” dessa regulação.

Especialistas dizem que uma regulação “forte” pode tornar difícil que empresas pequenas se desenvolvam dentro desse cenário, já que não teriam condições de atender a todos os requisitos da lei. Por isso, há uma visão de que a legislação aprovada precisa ainda ser nivelada pela realidade brasileira.

Dentre os projetos que estão transitando, há o PL 21/2020, também conhecido como o marco legal para regulamentar o uso de IA. Ele enumera princípios que devem guiar a aplicação da IA no país, contendo temas como o respeito à dignidade humana, transparência dos algoritmos e proteção de dados pessoais.

Já o PL 2338/2023 visa estabelecer os direitos do cidadão que é afetado pela IA, além de criar ferramentas de fiscalização. O projeto se centraliza em cinco pilares: princípios; direitos dos afetados; classificação de riscos; obrigações e requisitos de governança; supervisão e responsabilização.

Mas um dos desafios que ainda torna a regulação complexa é a falta de conhecimento

Happy
Happy
0 %
Sad
Sad
0 %
Excited
Excited
0 %
Sleepy
Sleepy
0 %
Angry
Angry
0 %
Surprise
Surprise
0 %

Average Rating

5 Star
0%
4 Star
0%
3 Star
0%
2 Star
0%
1 Star
0%

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Next Post

AWS corrige vulnerabilidade crítica FlowFixation no serviço Apache Airflow

A AWS corrigiu uma vulnerabilidade crítica no serviço Apache Airflow, chamada FlowFixation, que permitia a execução remota de código. Saiba mais sobre as medidas tomadas para proteger a segurança dos usuários.

You May Like