A dois metros de distância: Na quinta-feira, dia 16, a startup publicou um post no seu blog com um vídeo de demonstração de um novo detector de distanciamento social. À esquerda, podemos ver as pessoas a andar na rua, à direita, o Bird’s-eye diagram (em português, o diagrama olho de pássaro) que representa cada uma como um ponto e os torna vermelhos quando se aproximam demasiado de outra pessoa. A empresa diz que a ferramenta foi feita para ser usada em ambientes de trabalho como fábricas e foi desenvolvida como resposta a solicitações dos seus clientes (o que inclui a Foxconn). A companhia também diz que a ferramenta pode ser facilmente integrada a sistemas de segurança já existentes, mas que ainda está a explorar como notificar as pessoas quando quebram o distanciamento social. Um método possível é um alarme que soa quando os trabalhadores se aproximarem muito uns dos outros. Um relatório também pode ser gerado que analisa os padrões de movimento e ajuda os gerentes a reorganizar o espaço de trabalho.
Problemas: O detector precisa primeiro de ser calibrado para mapear quaisquer gravações de segurança em relação a dimensões do mundo real. Uma rede neural treinada então selecionaria as pessoas no vídeo, enquanto outro algoritmo calcula as distâncias entre elas.
Vigilância no local de trabalho: O conceito não é novo. No início do mês de abril, a Reuters informou que a Amazon também possui um software semelhante para monitorizar as distâncias entre os funcionários do armazém. Esta ferramenta junta-se a um conjunto crescente de tecnologias que estão a ser usadas cada vez mais para vigiar os seus funcionários. Atualmente, existem inúmeros sistemas de IA baratos e prontos para compra que as empresas podem obter para assistir a todos os funcionários de uma loja ou ouvir todos os representantes de atendimento ao cliente. Como o detector da Landing AI, esses sistemas emitem avisos em tempo real quando os comportamentos se desviam de um determinado padrão. A pandemia do Coronavírus apenas acelerou esta tendência.
Território arriscado: no seu blog, a Landing AI enfatiza que a ferramenta é destinada a manter “funcionários e comunidades em segurança” e deve ser usada “com transparência e apenas com consentimento expresso”. Mas a mesma tecnologia também pode ser abusada ou usada para normalizar medidas de vigilância mais nocivas. Ao examinar o crescente uso da vigilância no local de trabalho no seu relatório anual em dezembro passado, o instituto de pesquisa AI Now também apontou que, na maioria dos casos, os trabalhadores têm pouco poder para contestar o uso destas tecnologias. “O uso destes sistemas reúne poder e controlo nas mãos dos empregadores e prejudica principalmente os trabalhadores com menores salários (que são desproporcionalmente pessoas de cor)”. Dito de outra maneira, isto torna o desequilíbrio de poder já existente, ainda pior.
Artigo de Karen Hao, Senior Reporter – MIT Technology Review EUA