
Ética na IA: caminhos para uma tecnologia mais justa e transparente
Por Barbara Fraga
Publicado em 03/05/23 às 16:15
Que a Inteligência Artificial (IA) tem se tornado cada vez mais presente em nossas vidas, isso não temos dúvida. Este recurso pode ser utilizado de diversas formas, que vai desde os assistentes virtuais em nossos smartphones até os sistemas de tomada de decisão nas organizações. E essa nova ‘rotina tecnológica’ vai ao encontro de mais uma afirmativa certeira de Bill Gates.
O criador da Microsoft afirma que “A era da IA acabou de começar”. Mas diante de tantas vantagens, precisamos colocar o pé no chão e avaliar o quão isso pode ser realmente benéfico à sociedade. Um aspecto que não é novidade para ninguém, e que, no momento, ganha ainda mais relevância, é a importância dos investimentos éticos no uso da ferramenta.
Primeiro, é importante entender como os princípios morais são regidos para que sejam devidamente aplicados. Em relação à Inteligência Artificial, a ética envolve a consideração sobre como as decisões tomadas por algoritmos afetam a sociedade. Além disso, é pontuado ainda se essas decisões são justas e imparciais. Isso porque a IA é treinada com base em dados históricos e significa que, se as informações usadas neste treinamento forem enviesadas ou discriminatórias, a ferramenta pode perpetuar esses preconceitos. Por exemplo, um sistema de recrutamento de emprego pode excluir automaticamente candidatos de determinados grupos étnicos ou de gênero, se o algoritmo for treinado em dados nestas condições.
Um caso conhecido na indústria de tecnologia ocorreu em 2018, quando a Amazon enfrentou críticas depois de descobrirem que seu sistema de contratação baseado em IA desfavorecia as inscrições de mulheres, o que levou a um viés de gênero em seus resultados. Os investimentos em ética na IA podem ajudar a evitar erros como este, garantindo que os algoritmos sejam treinados com dados representativos e justos.
E os problemas relativos à falta de ética não param por aí. Entre as principais adversidades que podem acontecer neste quesito, estão:
- Perpetuar preconceitos e discriminações presentes na sociedade, já que os algoritmos são treinados com base em dados históricos da rede. A utilização indiscriminada dessas informações pode resultar em tomadas de decisão injustas e intolerantes em relação às minorias.
- Falta de transparência em relação à tomada de decisão da IA pode torná-la menos confiável e incapacitada de ser auditada, o que pode gerar desconfiança em relação ao seu uso.
- Autonomia sem controle quando uma ferramenta sem preceitos éticos pode tomar decisões independentes, sem o devido controle humano. Isso pode ser perigoso em áreas como saúde e segurança, tendo em vista que equívocos podem resultar em graves consequências.
- Manipulação da opinião pública ou de decisões políticas colocando em risco a democracia e a liberdade de expressão.
- Comunicação indevida ocorrendo sem inspeção ética pode resultar em conselhos ruins aos usuários em uma simples conversa, gerando possíveis decisões equivocadas seguidos de atitudes prejudiciais em diversos níveis, sejam psicológicos ou físicos.
Já deu para perceber que a pauta relativa à ética é urgente e necessária. Com isso em prática, será possível promover benefícios como transparência nas informações, baseadas em modelos não tendenciosos e socialmente responsáveis, que não resultem em decisões prejudiciais à sociedade.
Para que essa pauta comece a andar, ao invés de suspendermos seu desenvolvimento temporariamente, como sugeriram Elon Musk e Steve Wozniak, vice-presidente da OpenAI e co-fundador da Apple, respectivamente, em carta aberta pedindo que fossem estabelecidos protocolos de segurança e supervisão adequados, o passo mais correto é criar regulações que tragam essa transparência.
Até o momento, o Projeto de Lei mais avançado no Congresso Nacional do Brasil é o Projeto de Lei 21/2020, que estabelece um Marco Regulatório para o setor de Inteligência Artificial. A pauta foi aprovada pela Câmara dos Deputados em setembro de 2021 e, atualmente, está aguardando votação no Senado Federal, onde recebeu diversas emendas após a criação de uma comissão de juristas especializados no assunto.
O principal objetivo deste projeto é prevenir a violação dos direitos fundamentais dos usuários que interagem, de alguma forma, com a Inteligência Artificial. Com a nova legislatura, espera-se que o texto seja continuamente analisado e votado para que possa ser enviado novamente à Câmara dos Deputados, que decidirá se aprova ou não as alterações realizadas.
Além disso, existem outras iniciativas para ajudar neste processo positivo de regulação. Entre elas está a AI Trism, framework criado pela Gartner que permite mais governança, confiabilidade, justiça, eficácia e privacidade desta tecnologia.
Podemos concluir que investimentos em ética na IA são fundamentais para garantir o uso responsável e justo dessa tecnologia cada vez mais presente em nossas vidas. As empresas e governos que levam este conceito a sério podem construir a confiança dos usuários e, ao mesmo tempo, garantir que a tecnologia seja usada para melhorar a vida das pessoas, e não para prejudicá-las.

