Compliance
A Gartner identificou seis riscos que os líderes devem ter em conta para uma utilização empresarial responsável de ferramentas de IA generativas
24/05/2023
Segundo a Gartner, os líderes legais e de compliance devem abordar a exposição da sua organização a seis riscos do ChatGPT. Da mesma forma, devem endereçar quais proteções estabelecer para garantir uma utilização empresarial responsável de ferramentas de IA generativas. “Os resultados gerados pelo ChatGPT e outras ferramentas de Large Language Model (LLM) é propensa a vários riscos”, disse Ron Friedmann, senior director analyst da prática de Legal & Compliance da Gartner. “Os líderes legais e de compliance devem avaliar se essas questões apresentam um risco material para a empresa e quais controlos são necessários, tanto dentro da empresa quanto nos serviços de terceiros e nonos. Não o fazer pode expor as empresas a consequências legais, reputacionais e financeiras”. Respostas fabricadas e imprecisas. Talvez o problema mais comum com o ChatGPT e outras ferramentas LLM seja uma tendência a fornecer informações incorretas – embora superficialmente plausíveis. “O ChatGPT também é propenso a alucinações, incluindo respostas fabricadas que estão erradas e citações legais ou científicas inexistentes”, disse o analista. “Os líderes legais e de conformidade devem emitir orientações que exijam que os funcionários analisem qualquer saída gerada pelo ChatGPT quanto à precisão, adequação e utilidade real antes de serem aceitos”.
“Informações sensíveis, proprietárias ou confidenciais utilizadas em prompts podem ser incorporadas em respostas para utilizadores fora da empresa. A legislação e a conformidade precisam estabelecer uma estrutura de compliance para a utilização do ChatGPT e proibir claramente a inserção de dados organizacionais ou pessoais confidenciais em ferramentas públicas de LLM”, esclareceu a analista.
“A eliminação completa do preconceito é provavelmente impossível, mas a legislação e a compliance precisam ficar por dentro das leis que regem o viés da IA e garantir que suas orientações estejam em conformidade. Isso pode envolver trabalhar com especialistas no assunto para garantir que a produção seja confiável e com funções de auditoria e tecnologia para definir controles de qualidade de dados”, explicou o analista da Gartner.
“O ChatGPT não oferece referências de fontes ou explicações sobre como o resultado é gerado. Os líderes legais e de compliance devem ficar atentos a mudanças na lei de direitos de autor que se apliquem ao ChatGPT e exigir que os utilizadores examinem os resultados que gerem para garantir que ela não infrinja os direitos autorais ou de propriedade intelectual”.
“Os líderes legais e de compliance devem coordenar com os proprietários de ciber-riscos para explorar se ou quando emitir alertas para os colaboradores de cibersegurança da empresa sobre essa questão. Eles também devem realizar uma auditoria das fontes de diligência devida para verificar a qualidade das informações”, conclui.
|