IMAGEM: PORTO DE ASHDOD
Um ensaio recente na revista The Atlantic alertou que a "IA emocional" está se infiltrando em escritórios e centrais de atendimento, alegando ser capaz de ler os sentimentos dos funcionários por meio de expressões faciais, vozes e digitação. Mas e quanto ao setor de transporte marítimo?
Na última década, a indústria interconectou navios e portos. Rastreámos cascos através do AIS, motores através de sensores e guindastes através de câmeras. O próximo passo que alguns pesquisadores e fornecedores estão explorando é aplicar essas ferramentas às pessoas: monitorar o humor, o estresse e a "atitude" da tripulação em tempo real usando câmeras, dispositivos vestíveis e análise de voz, tudo em nome da segurança e do desempenho. Isso levará os painéis de controle para além do aço e da carga, para dentro da vida interior das pessoas.
Na pesquisa marítima, isso já está acontecendo. Um projeto testou um sistema de "reconhecimento de emoções" para navios que combina análise facial, sinais de fala e sensores corporais para detectar quando um marítimo pode estar estressado ou sobrecarregado e enviar um alerta para a ponte de comando ou para a costa. Outro estudo argumenta que analisar o tom de voz e os padrões de fala pode ajudar a identificar problemas de saúde mental entre a tripulação mais cedo do que os questionários tradicionais. Diante das reais preocupações com fadiga, estresse e suicídio no mar, é fácil entender o apelo dessa tecnologia.
Mas há um porém. Estudos sobre o monitoramento de emoções no trabalho mostram que muitas pessoas se sentem observadas e incompreendidas quando um software tenta adivinhar como elas se sentem. Elas temem que palpites errados possam afetar seus turnos, salários ou até mesmo seus empregos, e algumas dizem que preferem atuar para a câmera a mostrar como realmente se sentem.
Em um navio ou em um terminal, isso é perigoso. A segurança das operações depende da capacidade da tripulação e da equipe de dizerem: "Estou muito cansado para este turno", "Essa manobra não parece correta" ou "Quase tivemos um acidente ontem". Se as pessoas acreditarem que um sistema está avaliando seu humor ou "atitude", elas aprenderão a parecer calmas em vez de serem honestas. A empresa ganha um painel de controle organizado — e uma visão distorcida do que realmente está acontecendo.
Os órgãos reguladores estão começando a reagir. As novas regras da UE sobre IA proíbem sistemas que tentam ler as emoções dos trabalhadores no ambiente de trabalho, exceto para usos médicos ou de segurança específicos, devido ao risco à privacidade e aos direitos fundamentais. Para armadores, operadores e terminais ligados à Europa, o rastreamento de emoções deixou de ser apenas um debate ético futurista e se tornou um desafio que preocupa seus advogados.
Então, onde a indústria deve traçar a linha? A IA que ajuda a identificar sinais claros de fadiga ou desconforto em configurações de segurança muito específicas, com a tripulação envolvida no projeto e com fortes salvaguardas, pode ter um papel importante. Mas usar "emoções" presumidas para avaliar o desempenho, decidir contratos ou gerenciar o comportamento deve ser uma linha que não deve ser cruzada.
O que as empresas e os executivos devem fazer? Na sua próxima reunião de tecnologia ou segurança, adicione uma pergunta a cada nova proposta de sistema: "Este sistema é capaz de medir ou avaliar como nossos funcionários se sentem?" Se a resposta for sim, essa decisão deve ser tomada pela diretoria, e não deixada para os gerentes de TI ou de outras áreas.
O setor de transporte marítimo aprendeu que mais dados sobre a carga não significam automaticamente melhor julgamento. Mais dados sobre os sentimentos das pessoas também não tornarão os navios ou portos mais seguros. Estudos sobre monitoramento de emoções mostram que os trabalhadores frequentemente sentem que têm pouca escolha a não ser aceitar o monitoramento intrusivo para manter seus empregos, mesmo quando o consideram uma grave violação de privacidade. Essa pressão silenciosa para "seguir o fluxo" no trabalho, sem o tipo de debate público que a vigilância estatal provoca, deveria fazer com que esse setor refletisse antes de permitir que algoritmos leiam a tripulação.
FONTE: SPLASH247.COM
