COMUNICADO:

Estimados visitantes:

Como ustedes ya lo notaron, nuestras páginas incluyendo el blog principal no han tenido publicaciones nuevas desde que empezó el año 2019 debido a razones involuntarias, desinterés de parte del equipo, tiempo disponible y otras razones internas afectando a nuestros seguidores tanto en los mismos blogs como en las redes sociales. El Grupo LECV140291 está tomando medidas al respecto sobre este problema. Habrá algunos cambios en las páginas, posible nuevas políticas, habrá mas contenido clasificado (especialmente para LECV140291 Anime y LECV140291 Historial la cual ya lo poseemos), las noticias seguirán pero con un formato diferente.

Agradecemos a todos nuestros seguidores y visitantes que, aunque no hubo publicaciones dentro de un buen tiempo están ahí, de todas maneras planeamos continuar el servicio y no detenerlo, salvo que surja una circunstancia mayor o a fuerza que lamentablemente originaría nuestro cierre (cosa que nadie quisiera en la vida, menos nosotros), le avisaríamos por todos nuestros medios con anticipación.

Grupo LECV140291.

Estimado seguidor o visitante:

Debido al tiempo y a la inmensa cantidad de noticias encontradas, estaremos cambiando el formato para las futuras publicaciones, será mostrado y enlazado a la página original de la fuente, respetando que el contenido mostrado no es de nosotros sino de su respectivo dueño, editor o personal que redacta la publicación. Esto aplicará solo a la página LECV140291 Blog Oficial.

Agradecemos su comprensión.

LECV140291.

Buscar en este blog:

viernes, 7 de septiembre de 2018

Google desarrolla un software gratuito para detectar abuso sexual infantil en internet.


La inteligencia artificial de Google ayudaría a los moderadores humanos a ser exponencialmente más efectivos a la hora de borrar contenido sexual de niños.

Imagina que tu trabajo consiste en eliminar de internet cualquier contenido que tenga que ver con abuso sexual infantil. Para ello, verificas por la red todo tipo de archivos que te encuentres, deseando no tener que toparte más con el horror que conlleva este tipo de material. Sin embargo, lo haces; y cuando lo eliminas, te das cuenta que se deben estar subiendo en ese momento millones de archivos similares. Pensando en eso, Google desarrolló un software que ayudara a agilizar el proceso de eliminación del material.

El Material de Abuso Sexual Infantil (CSAM) es mucho más común de lo que creemos. Seguramente se encuentra en algún lugar de la deep web, transitando entre las manos de distintos pedófilos. Ante esto, existen organizaciones dedicadas a eliminar este tipo de contenidos como Internet Watch Foundation. No obstante, el esfuerzo se hace realmente difícil por la gran cantidad de material que está allí afuera.

Teniendo todo esto en cuenta, Google anunció que lanzará un software que ayude a detectar con mayor facilidad el CSAM. Este será completamente gratuito y será compartido a varias ONG y proveedores de internet interesados en luchar contra la pornografía infantil.


¿Cómo funcionará?

El software con esta capacidad ya existía con anterioridad pero era algo limitado. Tecnología como 'PhotoDNA' de Microsoft permite dar alertas sobre fotos y videos que ya hayan sido identificados antes. No obstante, se requería que un moderador humano previamente haya catalogado un material como CSAM para que la IA lo identificara. Como resultado, todo el contenido que no ha sido marcado antes como ilegal queda por fuera de su alcance.

Google plantea una solución más efectiva. La compañía pretende usar redes neuronales para escanear en poco tiempo una gran cantidad de imágenes. Así, en su criterio podrá marcar el material con mayor prioridad de revisión. Esto le ayudará a los moderadores humanos a dar un veredicto más rápido y eliminar el contenido de manera ágil en caso de ser CSAM. En otras palabras: menos tiempo, más material que los moderadores pueden marcar y eliminar.

Esto será posible gracias a la compleja implementación de machine learning de Google. A partir de haber analizado miles de imágenes, la IA será capaz de diferenciar una de otra. Según la empresa, los moderadores aumentarán su eficiencia en un 700%.

Google aclaró que el software estará disponible a través de su kit de programación de seguridad de contenido:

"Estamos poniendo esto a disposición de las ONG y los socios de la industria de forma gratuita a través de nuestra API de seguridad de contenido, un conjunto de herramientas para aumentar la capacidad de revisar el contenido de una manera que requiere que menos personas estén expuestas a él".





Fuente:

No hay comentarios.:

Publicar un comentario

Buscar en este blog: