Mojcasopis

Tecnologia imersiva segura para crianças pode gerar censura excessiva: relatório

Tentativas de proteger a segurança das crianças no reino bidimensional das mídias sociais online podem impactar negativamente o mundo 3D da realidade aumentada e virtual, de acordo com um relatório divulgado terça-feira por um think tank de tecnologia de Washington, DC.

Os esforços legislativos, como a Lei de Segurança e Privacidade Online para Crianças (KOPSA), que foi aprovada pelo Senado dos EUA e agora está na Câmara dos Representantes, podem levar à censura prejudicial de conteúdo de RA/RV, afirmou o relatório do Fundação de Tecnologia da Informação e Inovação.

Se a KOPSA se tornar lei, as plataformas de RA/RV podem ser forçadas a intensificar a fiscalização da mesma maneira que as plataformas tradicionais de mídia social, explicou o relatório.

Ao dar à FTC autoridade para considerar o conteúdo nessas plataformas prejudicial, continuou, a FTC pode censurar excessivamente o conteúdo em plataformas de RA/RV, ou as próprias plataformas podem censurar o conteúdo para evitar responsabilidade, o que pode incluir conteúdo pertinente à educação, entretenimento e identidade das crianças.

“Um dos nossos medos em relação à KOPSA é que ela abra as portas para uma possível censura excessiva ao dar à FTC (Comissão Federal de Comércio) o poder de decidir o que se qualifica como prejudicial”, disse o autor do relatório, o analista de políticas Alex Ambrose.

“É outra maneira de um partido político decidir o que é prejudicial”, ela disse ao TechNewsWorld. “A FTC poderia dizer que conteúdo como proteção ambiental, aquecimento global e mudança climática induz ansiedade. Então, precisamos nos livrar completamente de qualquer coisa relacionada à mudança climática porque isso pode levar à ansiedade em crianças.”

A censura excessiva pode ser evitada

Andy Lulham, COO da VerificarMeuum provedor de verificação de idade e conteúdo com sede em Londres, reconheceu que o espectro da censura excessiva paira sobre as discussões sobre regulamentação online. “Mas acredito firmemente que esse medo, embora compreensível, é amplamente equivocado”, disse ele à TechNewsWorld. “Regulamentações governamentais bem elaboradas não são inimigas da liberdade de expressão, mas sim sua guardiã na era digital.”

Lulham sustentou que a chave para a regulamentação está na abordagem. “Regulamentações gerais e pesadas correm o risco de inclinar a balança para a censura excessiva”, disse ele. “No entanto, imagino uma estrutura regulatória mais sutil e baseada em princípios que pode aumentar a liberdade online enquanto protege usuários vulneráveis. Vimos exemplos dessas abordagens equilibradas em regulamentações de privacidade como o GDPR.”

O GDPR — Regulamento Geral de Proteção de Dados — em vigor desde 2018, é uma lei abrangente de proteção de dados na União Europeia que regula como as empresas coletam, armazenam e usam os dados pessoais de residentes da UE.

“Acredito firmemente que as regulamentações devem se concentrar em tornar obrigatórios sistemas e processos de segurança robustos em vez de ditar decisões específicas de conteúdo”, continuou Lulham. “Essa abordagem transfere a responsabilidade para as plataformas de desenvolver estratégias abrangentes de confiança e segurança, fomentando a inovação em vez de criar uma cultura de medo e remoção excessiva.”

Ele afirmou que a transparência será o eixo da regulamentação eficaz. “Exigir relatórios detalhados de transparência pode responsabilizar as plataformas sem recorrer a um policiamento de conteúdo pesado”, explicou. “Isso não apenas ajuda a evitar o alcance excessivo, mas também cria confiança pública nas plataformas e na estrutura regulatória.”

“Além disso”, ele acrescentou, “eu defendo regulamentações que exijam processos de apelação claros e acessíveis para decisões de remoção de conteúdo. Esta válvula de segurança pode ajudar a corrigir erros inevitáveis ​​e evitar censura injustificada.”

“Os críticos podem argumentar que qualquer regulamentação inevitavelmente levará a alguma censura”, Lulham admitiu. “No entanto, eu afirmo que a maior ameaça à liberdade de expressão vem de espaços não regulamentados onde usuários vulneráveis ​​são silenciados por abuso e assédio. Regulamentações bem projetadas podem criar um campo de jogo mais nivelado, amplificando vozes diversas que poderiam ser abafadas de outra forma.”

O bom, o mau e o feio da RA/RV

O relatório do ITIF observou que as conversas sobre segurança online frequentemente ignoram as tecnologias AR/VR. Tecnologias imersivas promovem a conexão social e estimulam a criatividade e a imaginação, explicou. Brincadeira, imaginação e criatividade são essenciais para o desenvolvimento das crianças.

O relatório reconheceu, no entanto, que abordar adequadamente os riscos que as crianças enfrentam com tecnologias imersivas é um desafio. A maioria das tecnologias imersivas existentes não são feitas para crianças menores de 13 anos, continuou. As crianças exploram espaços projetados por adultos, o que leva à exposição a conteúdo inapropriado para a idade e pode criar hábitos e comportamentos prejudiciais no desenvolvimento mental e social das crianças.

Lidar com esses riscos exigirá uma combinação de inovação de mercado e formulação de políticas bem pensadas, acrescentou. As decisões de design das empresas, práticas de moderação de conteúdo, ferramentas de controle parental e estratégias de confiança e segurança moldarão amplamente o ambiente de segurança no metaverso.

Ela admitiu, no entanto, que intervenções de políticas públicas são necessárias para lidar com certas ameaças à segurança. Os formuladores de políticas já estão abordando a segurança das crianças em plataformas “2D”, como mídias sociais, levando a regulamentações que podem afetar a tecnologia AR/VR, observou o ITIF.

Antes de promulgar essas regulamentações, o relatório recomendou que os formuladores de políticas considerassem os esforços contínuos de segurança dos desenvolvedores de AR/VR e garantissem que essas ferramentas mantivessem sua eficácia. Quando as ferramentas de segurança são insuficientes, continuou, os formuladores de políticas devem se concentrar em intervenções direcionadas para lidar com danos comprovados, não riscos hipotéticos.

“A maioria dos serviços online está trabalhando para remover conteúdo prejudicial, mas a grande quantidade desse conteúdo online significa que parte dele inevitavelmente passará despercebida”, disse Ambrose. “Os problemas que vemos nas plataformas hoje, como a incitação à violência, vandalismo e disseminação de conteúdo prejudicial e desinformação, só continuarão em plataformas imersivas.”

“O metaverso vai prosperar com grandes quantidades de dados, então podemos assumir que esses problemas serão generalizados — talvez até mais generalizados do que vemos hoje”, acrescentou ela.

Segurança por Design

Lulham concordou com a afirmação do relatório de que as decisões de design das empresas moldarão o ambiente de segurança do metaverso.

“Na minha opinião, as decisões que as empresas tomam em relação à segurança online serão cruciais para criar um ambiente digital seguro para crianças”, disse ele. “O cenário atual é repleto de riscos, e acredito que as empresas têm tanto a responsabilidade quanto o poder de reformulá-lo.”

Ele sustentou que o design da interface do usuário é a primeira linha de defesa para proteger as crianças. “As empresas que priorizam designs intuitivos e apropriados para a idade podem alterar fundamentalmente a forma como as crianças interagem com plataformas online”, ele explicou. “Ao criar interfaces que naturalmente orientem os usuários e os eduquem sobre comportamentos mais seguros, podemos reduzir significativamente os encontros prejudiciais.”

A moderação de conteúdo está em um momento crítico, ele acrescentou. “O volume de conteúdo exige uma mudança de paradigma em nossa abordagem”, ele observou. “Embora ferramentas alimentadas por IA sejam essenciais, elas não são uma panaceia. Eu argumento que o futuro está em uma abordagem híbrida, combinando IA avançada com supervisão humana para navegar na linha tênue entre proteção e censura.”

Ferramentas de controle parental são frequentemente negligenciadas, mas cruciais, ele sustentou. Elas não devem ser meros complementos, mas recursos essenciais projetados com a mesma atenção que a plataforma principal. “Eu imagino um futuro onde essas ferramentas são tão intuitivas e eficazes que se tornam parte integrante da vida digital da família”, ele disse.

Ele argumentou que estratégias de confiança e segurança diferenciarão plataformas prósperas de plataformas vacilantes. “Empresas que adotarem uma abordagem holística, integrando verificação de idade robusta, monitoramento em tempo real e relatórios transparentes, definirão o padrão ouro”, ele declarou. “O envolvimento regular com especialistas em segurança infantil e formuladores de políticas não será negociável para empresas sérias sobre a proteção de usuários jovens.”

“Em essência”, ele continuou, “vejo o futuro da segurança online para crianças como aquele em que ‘segurança por design’ não é apenas uma palavra da moda, mas o princípio fundamental que impulsiona todos os aspectos do desenvolvimento da plataforma.”

O relatório observou que as crianças, como impulsionadoras do metaverso, desempenham um papel crucial na adoção de tecnologias imersivas pelo mercado.

Garantir que a inovação possa florescer neste campo emergente e, ao mesmo tempo, criar um ambiente seguro para todos os usuários da tecnologia AR/VR será um desafio complexo, reconheceu, acrescentando que pais, corporações e reguladores têm papéis a desempenhar no equilíbrio entre privacidade e preocupações com segurança, ao mesmo tempo em que criam experiências imersivas envolventes e inovadoras.

Exit mobile version