A IA já entrou no dia a dia profissional, mas nem tudo é permitido. Conheça os limites, os riscos e as regras que muitos trabalhadores ignoram
Goste-se ou não, a inteligência artificial (IA) está a tornar-se cada vez mais parte integrante da forma como trabalhamos.
Por isso, como muitos outros trabalhadores, começou a usá-la para as suas tarefas.
Tudo bem - desde que saiba de forma clara o que é considerado um uso aceitável ou inaceitável da IA no seu trabalho e que ferramentas específicas o seu empregador aprovou ou proibiu.
Eis como pode perceber melhor essas regras e minimizar potenciais problemas, mesmo que a sua empresa não tenha sido muito clara a explicá-las.
1. Reconheça os limites da IA
A inteligência artificial generativa pode ser impressionante - por exemplo, ao ajudar a encontrar dados ou a estabelecer ligações que, de outra forma, poderiam passar despercebidas; ou ao testar trabalhos à procura de falhas de design ou erros.
Ao mesmo tempo, é altamente imperfeita e está sujeita às chamadas "alucinações" - definidas pela IBM como "um fenómeno em que a inteligência artificial percebe padrões ou objetos que não existem ou são impercetíveis para observadores humanos, criando resultados sem sentido ou totalmente incorreto".
Por outras palavras, pode produzir autêntico lixo.
Uma ferramenta de IA pode ser desculpada por quem a desenvolveu ou promove por essas falhas - mas o utilizador não será.
Por isso, quando se trata do seu trabalho, "nunca confie cegamente na IA", alerta Dave Walton, advogado que representa empregadores e copresidente da área de Inteligência Artificial, Dados e Analytics da Fisher Phillips.
Em vez disso, encare-a como uma ajuda inicial. "A IA generativa é a melhor coisa do mundo para passar do zero a algo aceitável em 60 segundos", afirma Niloy Ray, co-responsável pela prática de IA no escritório de advogados Littler Mendelson.
Mas, acrescenta, "‘aceitável’ raramente é o padrão exigido no trabalho".
Cabe-lhe a si verificar tudo o que incorpora da IA nos seus projetos. E ser transparente com o seu chefe sempre que a utilizar para esse fim.
2. Procure a política da sua empresa
É difícil dizer com certeza quantas empresas já têm políticas completas sobre o uso da IA, embora esse número esteja provavelmente a crescer.
Alguns inquéritos não científicos sugerem que essa percentagem é inferior à elevada fatia de trabalhadores que dizem já usar IA.
"O uso autónomo de IA cresceu para 65%, criando simultaneamente inovação e risco, à medida que os trabalhadores exploram ferramentas antes de existir orientação formal", indica a American Management Association, que este ano inquiriu 1.365 profissionais de vários setores em 29 países.
Em paralelo, um inquérito recente da Littler a 349 profissionais de empresas norte-americanas de diferentes dimensões e setores concluiu que 38% das empresas criaram uma política específica para o uso de IA por parte dos trabalhadores; outras 13% desenvolveram orientações; e 19% enquadraram o uso de IA em políticas laborais já existentes.
Assim, antes de fazer qualquer outra coisa, verifique que políticas e orientações sobre IA a sua empresa já implementou.
Quando bem elaboradas, essas políticas devem explicar claramente os princípios orientadores da empresa, o que é permitido e proibido, bem como a lista de ferramentas de IA que podem ser utilizadas e em que condições. Devem também esclarecer que sanções disciplinares podem resultar de uma utilização indevida.
Alguns setores podem mesmo proibir o uso de IA, como acontece com empresas ligadas à indústria da defesa, enquanto outros - nomeadamente o bancário e o financeiro — podem aconselhar extrema cautela ou optar por não recorrer a estas ferramentas, explica Ray.
Outros empregadores podem licenciar uma ferramenta de IA personalizada para uso interno ou desenvolver a sua própria solução, acrescenta Walton. Nesses casos, o recurso a ferramentas públicas de terceiros pode ser desencorajado, limitado ou mesmo proibido.
3. Use o bom senso
Se a sua empresa não tiver uma política específica sobre IA, consulte outras políticas internas que se aplicam a todo o seu trabalho - incluindo quando recorre a IA, sugere Ray.
Entre elas estão, por exemplo, as políticas destinadas a proteger informação confidencial, segredos comerciais ou propriedade intelectual da empresa - bem como as regras de cibersegurança e privacidade.
Como regra geral, se estiver a usar uma ferramenta de terceiros como o ChatGPT, numa versão acessível ao público em geral, nunca partilhe dados confidenciais ou informação pessoal identificável, alerta Walton.
Desative a função que permite à ferramenta treinar com os seus dados e configure-a de forma a não guardar as suas perguntas, recomenda.
Ray compara a segurança de usar uma ferramenta pública de IA a estacionar num parque público. Há maior probabilidade de alguém aceder ao seu carro do que se estivesse estacionado na sua garagem. "A possibilidade de interceção de dados é muito maior e não sabemos quem tem acesso", sublinha.
De forma mais ampla, acrescenta, é importante perceber que, embora a IA traga novas ferramentas para executar o trabalho, não altera as obrigações enquanto trabalhador.
"No fim do dia, deve fazer aquilo que um profissional responsável e consciente faria em qualquer outro dia", conclui Ray.