Nuestro sitio web utiliza cookies para mejorar y personalizar su experiencia, así como para mostrar anuncios (si los hubiera). Nuestro sitio web también puede incluir cookies de terceros, como Google Adsense, Google Analytics y YouTube. Al utilizar el sitio web, usted acepta el uso de cookies. Hemos actualizado nuestra Política de privacidad. Haga clic en el botón para consultar nuestra Política de privacidad.

Meta apoya un nuevo sistema que permite a los menores evitar que sus imágenes íntimas se publiquen en Internet

Meta apoya un nuevo sistema que permite a los menores evitar que sus imágenes íntimas se publiquen en Internet

Meta anuncio hoy ayuda a financiar una nueva organización llamada Quitate eso que, con el apoyo del Centro Nacional para Niños Desaparecidos y Explotados (NCMEC), ayudará a los jóvenes menores de 18 años a evitar que sus imágenes íntimas se compartan en línea. El sistema funciona de la misma manera que una iniciativa anterior de Facebook diseñado para evitar la difusión de imágenes íntimas no consensuadas, a veces denominadas «pornografía de venganza».

Junto con el lanzamiento, Meta dice que también está implementando nuevas herramientas que dificultarán que los «adultos sospechosos» interactúen con los adolescentes en Instagram.

La compañía dice que el nuevo sistema de eliminación de imágenes íntimas no consensuadas está diseñado de manera que protege la privacidad de los usuarios, ya que no requerirá que los jóvenes compartan las imágenes con Meta u otra organización. En cambio, el sistema asignará un valor hash único, un código numérico, a la imagen o video directamente desde el propio dispositivo del usuario. Este hash luego se enviará al NCMEC, lo que permitirá a cualquier empresa encontrar copias de estas imágenes y eliminarlas automáticamente, además de evitar su publicación en el futuro.

El sistema original, que se decía que era «pornografía de venganza», había sido criticado durante su proyecto piloto por requerir descargas de los usuarios antes de crear el hash, ya que los expertos en seguridad respondieron que no era el método más responsable para tratar contenido íntimo. Desde entonces ha sido renovado para crear hashes localmente, señalando en la documentación de ayuda que «sus imágenes nunca dejarán su computadora». Ahora este nuevo sistema Take It Down parece utilizar la misma metodología.

“Compartir una imagen íntima personal con otros puede ser aterrador y abrumador, especialmente para los jóvenes”, escribe Antigone Davis, oficial de seguridad global de Meta, en el anuncio. «Puede ser aún peor cuando alguien intenta usar estas imágenes como una amenaza para imágenes adicionales, contacto sexual o dinero, un delito conocido como sextorsión».

Aunque está destinado a jóvenes cuyas imágenes íntimas se comparten de manera no consensuada -e ilegal-, Meta señala que este sistema también puede ser utilizado por adultos, incluidos los padres o tutores del joven, o incluso adultos preocupados por las imágenes no consensuadas. tomados de sí mismos cuando eran más jóvenes.

El sitio web Take It Down también conecta a las personas con otros recursos del NCMEC, incluidas herramientas de búsqueda para ver si sus propias imágenes explícitas están disponibles en la web, una CyberTipline para denunciar a cualquier persona que lo amenace con imágenes u otras formas de explotación en línea, y más.

Si bien Meta respalda financieramente el sistema y lo usará en Facebook e Instagram, otras empresas participantes que se han registrado para participar en el uso de la nueva tecnología incluyen la red social Yubo, así como los sitios para adultos OnlyFans y Pornhub. Otras grandes empresas tecnológicas como Twitter y Snapchat están notablemente ausentes de la lista.

El sistema podría ser una herramienta útil para las personas que conocen o están en posesión de las imágenes no consentidas compartidas, suponiendo que sean conscientes de que existe esta opción de exclusión. Si bien las empresas ya estaban legalmente obligadas a denunciar material de explotación sexual infantil, o CSAM, al NCMEC, sus sistemas o procesos para detectar dicho material se les dejó implementar. La ley federal actual no especifica si deben buscar este tipo de imágenes en sus plataformas ni cómo deben hacerlo, lo que da como resultado que el MASI se propague ampliamente en todas las plataformas. Como era de esperar, dada su 2.96 mil millones de usuarios mensuales solo para Facebook, es un gran contribuyente a este crecimiento problema. Mientras tanto, los intentos de aprobar nueva legislación, como GÁNATELO, que cerraría este vacío legal aún no se han materializado. (Aunque este particular factura también fue controvertido debido a sus posibles consecuencias no deseadas sobre la libertad de expresión y la privacidad del consumidor, argumentaron los críticos).

Pero la falta de legislación en esta materia ha obligado a plataformas como Meta a autorregularse en cuanto a si manejarán este y otros tipos de contenido y cómo lo harán. Con el Congreso aparentemente incapaz de aprobar nuevas leyes diseñadas para la era de Internet, las preocupaciones sobre responsabilidad legal sobre la responsabilidad de las grandes tecnológicas por el contenido en sus plataformas ahora han llegado a la Corte Suprema. Allí, los jueces están considerando la Sección 230 de la Ley de Decencia en las Comunicaciones, que se creó en los primeros días de Internet para proteger los sitios web de la responsabilidad legal por el contenido publicado por los usuarios. Los nuevos casos que involucran a Twitter y YouTube de Google, y los algoritmos de recomendación que los acompañan, determinarán si estas protecciones de hace décadas deben anularse o incluso revertirse. Aunque no están relacionados con el MASI, son otro ejemplo de cómo el sistema regulatorio general de la plataforma no funciona en los Estados Unidos.

Sin la ayuda de la ley, plataformas como Meta han establecido sus propias reglas y políticas en las áreas de elección de algoritmos, diseño, tecnología de recomendación y protección del usuario final.

En los últimos meses, Meta ha reforzado sus protecciones para adolescentes anticipándose a las próximas regulaciones al hacer cosas como hacer que las nuevas cuentas de adolescentes sean privadas de forma predeterminada y hacer cumplir su configuración más restrictiva, además de implementar una variedad de herramientas de seguridad y protección para padres. cheques Entre estas actualizaciones se encontraban características específicas destinadas a evitar que los usuarios adultos se comuniquen con adolescentes que no conocen y advertir a los adolescentes sobre adultos que se involucran en comportamientos sospechosos, como enviar una gran cantidad de solicitudes de correo electrónico a amigos a usuarios adolescentes, por ejemplo.

Hoy, Meta dice que los adultos sospechosos ya no podrán ver las cuentas de los adolescentes cuando exploren la lista de personas a las que les ha gustado una publicación o cuando vean la lista de seguidores o seguidores de una cuenta, lo que provocará que corten aún más el acceso. Y si un adulto sospechoso sigue a un adolescente en Instagram, el adolescente recibirá una notificación que le pedirá que revise al seguidor y lo elimine. También pedirá a los adolescentes que revisen y restrinjan su configuración de privacidad y les notificará nuevamente y les pedirá que revisen la configuración cuando alguien comente sus publicaciones, los etiquete o los mencione en una publicación, o los incluya en Reels Remixes o Guides.

Por Emily Carter

Entradas relacionadas