Opinião | A IA está em toda parte. Os editores também deveriam estar.
(agsandrew/Shutterstock)Todos os dias leio mais sobre inteligência artificial generativa e quase todos os dias vejo anúncios tentando me vender algum aplicativo ou serviço baseado em IA que afirma que aumentará minha produtividade, tornará meu fluxo de trabalho mais eficiente ou ajudará meus alunos a aprender melhor.
Esta tecnologia, como outras antes, está mudando a forma como trabalhamos, ensinamos e aprendemos. Mas onde quer que a IA vá, a edição deve acompanhá-la.
À medida que o uso da IA se torna cada vez mais comum nas profissões da mídia, os seres humanos precisam permanecer no processo para garantir que os resultados da IA sejam úteis, apropriados – e corretos. A precisão é crucial para manter a credibilidade e o olhar atento e as habilidades de verificação de fatos dos editores são cruciais para a precisão.
A IA gera tão comumente informações erradas ou falsas que o fenômeno tem um nome: alucinação. Os resultados gerados afirmam com segurança fatos que são fontes de ficção que não existem e eventos que nunca aconteceram. Na verdade a taxa de alucinações piorou na última iteração do OpenAI, o que significa que mais e não menos humanos precisam estar envolvidos no processo de publicação.
sean kaufman
Sem que alguém verifique os resultados da IA, as alucinações são publicadas e acabam diante de um público em massa. Um editor dedicado que investe tempo e esforço na verificação de fatos e na leitura atenta pode erradicar informações incorretas, incompletas ou desatualizadas, bem como sinalizar conteúdo inapropriado, insensível ou simplesmente estranho.
O que acontece quando os editores ficam de fora? Alguns exemplos recentes:
Declaração de retratação da Wired ilustra o problema central: Cometemos erros aqui: esta história não passou por um processo adequado de verificação de fatos nem recebeu uma edição importante de um editor mais experiente. Esse processo de edição teria garantido que o conteúdo fosse confiável, em vez da resultante quebra de confiança do público.
justin chambers filhos
E estes são apenas exemplos do jornalismo. Outras mídias se tornaram virais pelos motivos errados, após seus próprios contratempos gerados pela IA; alguns (de muitos) exemplos são:
Esses erros embaraçosos corroem a confiança e destacam a necessidade de humanos em funções de supervisão. Chame isso de autenticação de responsabilidade de controle de qualidade, seja lá o que for - é editar com outro nome. E a edição é a maneira de evitar a publicação de conteúdo incorreto ou fabricado – e de evitar a reação inevitável do próprio público que você está tentando cultivar.
Agora as empresas estão começando a notar. Uma postagem recente do próprio ChatGPT para um estrategista de conteúdo humano enfrentou algumas críticas no LinkedIn e mais empresas estão percebendo que o conteúdo gerado por IA parece um lixo para seu público, então eles estão contratando escritores, editores e artistas para limpar a bagunça.
Em meio a toda a conversa sobre a IA vindo para o seu trabalho, Estudo de Stanford analisando a influência da IA generativa no emprego, observou-se que a IA pode ser menos capaz de substituir o conhecimento tácito e as dicas e truques idiossincráticos que se acumulam com a experiência.
O discernimento de julgamento e as habilidades de verificação de um editor profissional certamente se enquadram na categoria de conhecimento tácito. À medida que os profissionais, professores e alunos aprendem a se adaptar mais uma vez às inovações nas habilidades de edição de comunicação, devem estar no topo da lista. Edição como uma reflexão tardia - ou ele próprio terceirizado para a AI - não vai servir para meios de comunicação e empresas que desejam que seu conteúdo ultrapasse o ruído e se conecte autenticamente com o público.
Uma diretriz comum para o uso profissional de IA que tenho visto é Human first human last. Esse último humano? Deveria ser um editor.





































