A Apple está expandindo seus recursos de segurança no iOS 18.2 com uma nova funcionalidade que promete revolucionar a proteção de menores contra conteúdo sensível. O sistema utiliza aprendizado de máquina diretamente no dispositivo para detectar e borrar automaticamente imagens com nudez.

    A novidade será inicialmente lançada na Austrália, onde novas regulamentações exigem que empresas de tecnologia implementem medidas mais rigorosas contra conteúdo impróprio e terrorismo até o final do ano.

    Publicidade.

    Novo iPhone SE pode surpreender com lançamento de modelo Plus em 2025

    O recurso analisa fotos e vídeos em diversos aplicativos do ecossistema Apple, incluindo Mensagens, AirDrop, Pôsteres de Contato (nos apps Telefone e Contatos) e mensagens de vídeo do FaceTime. Alguns aplicativos de terceiros também serão contemplados quando o usuário selecionar conteúdo para compartilhamento.

    Quando conteúdo sensível é detectado, o sistema automaticamente borra a imagem ou vídeo e exibe um aviso ao usuário. Para menores de 13 anos, é necessário inserir a senha do Tempo de Tela para visualizar o conteúdo.

    Leia mais:

    A ferramenta oferece diversas opções de proteção, como sair da conversa ou grupo, bloquear o remetente e acessar recursos de segurança online. Também há a possibilidade de denunciar as imagens e vídeos diretamente para a Apple.

    Uma mensagem tranquilizadora é exibida, reforçando que não há problema em recusar a visualização do conteúdo ou abandonar o chat. Os usuários também podem optar por contatar um dos pais ou responsável através do sistema.

    Para usuários com 13 anos ou mais, existe a opção de prosseguir com a visualização após os avisos, sempre com lembretes sobre a possibilidade de recusa e disponibilidade de ajuda adicional.

    Divulgação/Apple

    A funcionalidade estará disponível em diferentes dispositivos Apple, com pequenas variações. No Mac, a análise ocorre em mensagens e alguns apps de terceiros. No Apple Watch, cobre Mensagens, Pôsteres de Contato e mensagens de vídeo do FaceTime. Já no Vision Pro, o recurso examina Mensagens, AirDrop e aplicativos selecionados de terceiros.

    Para utilizar o recurso, será necessário ter iOS 18, iPadOS 18, macOS Sequoia ou visionOS 2. A ativação pode ser feita através de Ajustes > Tempo de Tela > Segurança na Comunicação, onde uma opção específica deve ser habilitada.

    Esta nova abordagem representa uma evolução significativa em relação à controversa tentativa anterior da Apple de combater material de abuso sexual infantil (CSAM) em 2021, que foi abandonada devido a preocupações com privacidade e segurança.

    A empresa planeja expandir globalmente o recurso após o período de testes na Austrália, mantendo seu compromisso com a proteção infantil sem comprometer a criptografia ponta a ponta ou criar brechas de segurança.

    Fonte: Apple

    Share.