Publicidade
De acordo com uma pesquisa da Gartner realizada no primeiro trimestre com 2,5 mil executivos, cerca de 70% dos entrevistados relataram que suas organizações estão considerando integrar a IA generativa em seus processos. Além disso, de acordo com o recém-publicado Stanford AI Index Report, os índices globais de adoção de IA estão mais altos em todas as regiões pesquisadas.
No entanto, muitas organizações ainda estão compreensivelmente hesitantes em adotar aplicações de IA generativa, citando preocupações sobre ameaças à privacidade e à segurança, violação de direitos autorais, bem como possíveis parcialidades e discriminações em seus resultados, entre outros perigos.
Baixe uma lista de 10 ações de Small Caps que, na opinião dos especialistas, possuem potencial de crescimento para os próximos meses e anos
Atualmente, os governos estão se esforçando para criar estruturas e leis adequadas para gerenciar essa tecnologia e suas desvantagens. Isso significa que, de modo geral, as empresas precisam lidar com essas questões por conta própria. É evidente que os diferentes tipos de riscos colocados pela IA generativa não são iguais, por isso precisamos compreendê-los e gerenciá-los adequadamente.
Plano para os riscos da IA generativa
Classificamos os riscos da IA generativa com base em dois fatores: intenção e uso. Separamos a aplicação incorreta acidental da IA generativa de práticas ilícitas intencionais (intenção). Da mesma forma, a utilização de ferramentas de IA generativa para criar conteúdo é diferenciada do consumo de conteúdo que outras partes possam ter criado com IA generativa (uso). Acreditamos que cada um dos quatro tipos de riscos destacados em nossa estrutura apresentará desafios distintos:
Continua depois da publicidade
Uso indevido
O uso indevido é a exploração antiética ou ilegal das capacidades da IA generativa para fins prejudiciais, como fraudes e campanhas de desinformação. À medida que as capacidades da IA generativa melhoraram, atores mal-intencionados passaram a utilizá-la em vários tipos de ataques cibernéticos. Por exemplo, o baixo custo da criação de conteúdo com IA generativa levou a um aumento das deepfakes, que estão sendo utilizadas para fazer engenharia social, ataques automatizados de desinformação, golpes, fraudes financeiras, roubo de identidade e até manipulação de resultados eleitorais.
Aplicação incorreta
Um dos problemas bem conhecidos da IA generativa é que ela prioriza a plausibilidade, não a precisão, e pode criar resultados imprecisos – um problema conhecido como “alucinação”. Isso se torna um problema quando os usuários dependem indevidamente dela ou aplicam incorretamente as ferramentas da IA generativa. Os casos de aplicação incorreta podem aumentar à medida que a IA generativa se torna multimodal e mais hábil na criação de conteúdos convincentes.
Deturpação
Esta categoria abrange situações em que os resultados da IA generativa criados por terceiros são utilizados e divulgados de forma intencional, apesar das dúvidas sobre sua credibilidade ou autenticidade.
Continua depois da publicidade
Uso acidental
A classificação final inclui conteúdos que podem ser consumidos e compartilhados acidentalmente por usuários que não estão cientes de sua inautenticidade.
Cada um dos riscos mencionados acima apresenta desafios únicos, mas há ações que líderes de empresas públicas e privadas podem adotar para mitigar esses riscos.
Mitigação dos riscos de criação de conteúdo: uso indevido e aplicação incorreta
Para mitigar o risco de uso indevido e de aplicação incorreta de conteúdo gerado por IA, as organizações precisam desenvolver capacidades para detectar, identificar e prevenir a propagação de tais conteúdos potencialmente enganosos. As seguintes ações são bons pontos de partida:
1. Garantir o alinhamento entre os valores organizacionais e os princípios da IA
Uma organização comprometida com a implementação de IA deve começar estabelecendo princípios e diretrizes claros para o uso da IA generativa, garantindo que seu uso não cause danos pessoais ou sociais. Depois, ela deve articular explicitamente os valores da sua organização e disponibilizá-los prontamente para todos os colaboradores.
2. Obrigar todas as entidades que criam conteúdo de IA generativa a colocar uma marca d’água em sua produção de IA generativa
Incluir uma marca d’água na produção de IA foi proposto como mecanismo para garantir transparência, indicando a fonte da produção, a quem ela pertence e sua autenticidade (relativa). Se determinados conteúdos forem gerados por um sistema de IA, esse fato deverá ser acessível ao público e comunicado de forma clara; colocar marca d’água na produção garante que os usuários possam distinguir entre IA e saídas criadas por humanos.
Continua depois da publicidade
3. Criar um ambiente controlado de IA generativa dentro da organização.
Várias organizações com as quais colaboramos nos setores de bens de consumo embalados (CPG), automotivo, industrial, financeiro e de mídia estão se esforçando para desenvolver suas próprias ferramentas aprimoradas de IA generativa. Por exemplo, na IMD, também estamos ajustando uma Linguagem de Grande Escala (LLM) às nossas necessidades e adicionamos uma camada extra de ferramentas de gestão de privacidade à nossa arquitetura para garantir que nenhuma informação pessoalmente identificável chegue ao nosso GPT. Embora não sejam imunes a alucinações ou à utilização indevida, tais LLMs oferecem um certo grau de proteção e controle sobre o conteúdo que é criado e consumido.
Mitigação dos riscos de consumo de conteúdo: interpretação errônea e deturpação
Mesmo que o conteúdo questionável da IA generativa não seja gerado internamente, seu uso – intencional ou não – pode causar danos à reputação e outras consequências negativas para as organizações. Propomos os seguintes passos:
1. Fornecer oportunidades de desmistificação e treinamento de conscientização sobre IA generativa em toda a organização
Estabelecer barreiras internas para o uso da IA generativa, assim como políticas sobre quando ela pode ou não ser utilizada, pode ajudar a mitigar preocupações em torno de preconceitos, falta de transparência, validade dos resultados e armadilhas regulatórias associadas à IA generativa. Estas proteções devem ser combinadas com programas de formação que possam aumentar a conscientização sobre o consumo seguro e responsável de conteúdos de IA generativa.
2. Validar os resultados da IA por meio de mecanismos de rotulagem e alerta
Atualmente, não existem sistemas automatizados que possam identificar com segurança se algum resultado é criado pela IA ou não. Além da marca d’água mencionada acima, as organizações precisam estabelecer outros mecanismos para verificação cruzada e validação de conteúdo. Esses mecanismos precisam ser robustos o suficiente para detectar tanto alucinações (uso indevido da IA generativa), bem como aplicações incorretas intencionais do conteúdo da IA generativa.
Continua depois da publicidade
3. Estabelecer planos de mitigação de danos para situações que não são contidas
Os riscos da IA generativa são mais bem abordados de forma proativa, por exemplo, criando uma estrutura de gestão de risco e adotando algumas das práticas mencionadas anteriormente. As melhores práticas nesta área estão sendo desenvolvidas rapidamente.
No entanto, apesar dos melhores esforços, é pouco provável que todas as ameaças sejam contidas – algumas realmente chegarão a fóruns públicos e de fato poderão se tornar virais. Para situações como essas, os reguladores e as equipes técnicas das empresas precisam ter um plano em vigor para conter os danos.
É importante ter uma equipe de força-tarefa interna que possa compreender, priorizar e controlar rapidamente os riscos e comunicar com todas as partes interessadas relevantes. Uma estratégia de comunicação eficaz deve envolver a divulgação das práticas de governança e gestão de riscos da organização em torno da IA generativa, bem como da estratégia de contenção de riscos.
+++
A IA generativa promete trazer uma mudança fundamental que terá um impacto significativo na humanidade e, como todas as grandes tecnologias, traz consigo os seus próprios riscos inerentes. É exatamente por isso que os executivos de hoje deveriam começar a tomar iniciativas no desenvolvimento responsável da IA. Quanto antes compreendermos e aprendermos a gerir estes riscos, mais rapidamente poderemos aplicar esta tecnologia para o bem, tanto na esfera pública quanto na privada.
HBR: ©.2024 Harvard Business School Publishing Corp./Distribuído por The New York Times Licensing Group