As crianças podem sair secretamente dos chats online para protegê-las de grupos “tóxicos”, como parte de um conjunto de medidas para proteger os jovens online.
Baseia-se em medidas existentes em A Lei de Segurança Online, com lançamento previsto para o início de 2025, que visa impedir que crianças acessem conteúdos nocivos.
Ofcom regulamentará o novo projeto de lei e sua chefe, Dame Melanie Dawes, disse: “Os jovens deveriam ser capazes de sair de bate-papos em grupo que sabem que são tóxicos para eles, sem que todos possam ver”.
Em resposta a um Instagram post revelando as mudanças, um usuário concordou: “Todos deveriam poder sair de bate-papos em grupo dos quais não querem fazer parte, sem sentir a ansiedade de serem vistos!”
Outro concordou, dizendo: “Isso seria algo muito poderoso para crianças e adultos!”
A Lei de Segurança Online significa que empresas como Facebook, Instagram e Whatsapp poderão ser confrontados com pesadas multas de até 10% da receita global, ou £18 milhões, se não cumprirem. Os chefes também podem enfrentar pena de prisão.
Um comentarista acreditou que as multas não seriam eficazes: “Grandes multas não funcionarão, são empresas de trilhões de dólares!”
De acordo com a lei, o cyber-flashing – envio de imagens sexuais não solicitadas online – será crime, assim como o compartilhamento de pornografia deepfake, o que significa usar IA para impor o rosto de alguém em material pornográfico.
Também exigirá que os sites pornográficos verifiquem as idades para evitar que crianças vejam o conteúdo.
Os pais enlutados também devem poder obter informações sobre os seus filhos junto de empresas tecnológicas de uma forma mais integrada.
A lei encontrou oposição devido à sua exigência de acesso a mensagens privadas em casos com potencial conteúdo de abuso sexual infantil.
Empresas como Whatsapp e iMessage usam mensagens criptografadas para proteger a privacidade dos usuários e ameaçaram deixar o Reino Unido em vez de comprometer a segurança das mensagens.
O governo disse que o regulador Ofcom só pediria às empresas de tecnologia que acessassem as mensagens depois que uma “tecnologia viável” fosse desenvolvida.
De acordo com a lei, as empresas de mídia social devem aplicar medidas para impedir que as crianças acessem todos os conteúdos que envolvam abuso sexual infantil; comportamento controlador ou coercitivo; violência sexual extrema; imigração ilegal e contrabando de pessoas; promover ou facilitar o suicídio; promoção de automutilação; crueldade contra animais; venda de drogas ou armas ilegais; e terrorismo.