Radioteca ya no recibe más audios. Los audios existentes permanecerán en línea.

[Leer aviso]

Por falta de fondos, desde junio de 2020, este portal de intercambios se encuentra congelado. Ha sido imposible mantener activo el sitio que ha crecido constantemente desde que se abrió en 2006. Queremos agradecer a quienes, de una u otra forma, apoyaron esta iniciativa de Radialistas Apasionadas y Apasionados: la oficina de UNESCO en Quito por aportar el empujón inicial; a CAFOD por confiar siempre en nuestras iniciativas; a HIVOS y la DW-Akademie por sus apoyos para ir mejorando la web y mantener el servidor; a Código Sur por sostener técnicamente Radioteca la mayoría del tiempo que estuvo activa; a Roberto Soto por su solidaridad técnica en estos últimos años; y la Red de Radios Comunitarias y Software Libre que, junto a Guifi.net, permiten que esta versión final de Radioteca siga en línea y no se pierdan nunca los audios que muchas radios nos confiaron a lo largo de 14 años.

Recomendamos Archive.org para guardar tus audios online.

Crean inteligencia artificial psicópata.
Crean inteligencia artificial psicópata.
Descripción:

La primera inteligencia artificial psicópata, desarrollada por el Instituto Tecnológico de Massachusetts (MIT), fue bautizada "Norman", en honor al protagonista del filme "Psicosis", Norman Bates.

Libreto:
CIENCIA Y TECNOLOGÍA (ACN RADIO)

FECHA: 18-06-18

TEMA: Crean inteligencia artificial psicópata

REDACTOR: Alain Amador

SONIDO: TEMA DE PRESENTACIÓN.

LOC: La primera inteligencia artificial psicópata, desarrollada por el Instituto Tecnológico de Massachusetts (MIT), fue bautizada "Norman", en honor al protagonista del filme "Psicosis", Norman Bates.

Tras las inteligencias artificiales racistas y sexistas, llegó la hora de la psicópata, que tras "ver" imágenes macabras da respuestas inquietantes al método de psicodiagnóstico conocido como "Test de Rorschach", utilizado desde MIL 921 para evaluar la personalidad.

El experimento, tiene como objetivo demostrar que el modo en que se entrenan esos algoritmos puede influenciar su comportamiento posterior, como por ejemplo observar una foto y comprender el contenido después de haber construido una base de datos con imágenes.

Los investigadores lo "entrenaron" con imágenes de personas moribundas tomadas de un directorio del sitio Reddit, mientras que otra inteligencia artificial se entrenó con fotos de personas y animales en distintas situaciones, ninguna dramática.

Ambas fueron luego sometidas al famoso Test de Rorschach, en el que se les pidió interpretar las manchas de tinta para evaluar su personalidad. La diferencia entre ambas interpretaciones resultó evidente.

La mancha que la inteligencia "normal" interpretaba como "un grupo de pájaros sobre una rama" para Norman era "un hombre que sufría una descarga eléctrica.

Un "florero" se convertía en "un hombre a quien le dispararon a muerte" y "un guante de béisbol" fue interpretado como "un hombre asesinado por una ametralladora".

"Norman nace del hecho que los datos que son utilizados para entrenar un algoritmo influencian de modo significativo el comportamiento", dijeron los científicos que desarrollaron la inteligencia artificial.



Agregaron que, por lo tanto, "cuando las personas hablan de comportamientos racistas o incorrectos el problema no es el algoritmo en sí, sino en los datos usados".

El problema ya surgió en distintas oportunidades en el pasado. El ejemplo más famoso es el de "Tay", la inteligencia artificial desarrollada por Microsoft bajo la forma de usuario de Twitter, que pocos días después de su lanzamiento se transformó en racista a causa de los comentarios que leía.

Un estudio publicado en la revista Science demostró luego que los algoritmos incorporan los mismos prejuicios de quien los programa. Y, por ejemplo, asocian términos muy negativos a las minorías étnicas o los referidos a labores domésticas con las mujeres.

Novedades de la ciencia y la tecnología por medio de Alain Amador, Yosdani Muñoz y Yasney Crespo.

ACN RADIO

Audio disponible en esta dirección: https://radioteca.net/userprofile/ain_cuba/


[Leer licencia]
Este material se publica bajo los términos de la licencia:
Atribución-NoComercial-CompartirIgual 4.0 Internacional
Usted es libre de:

Compartir — copiar y redistribuir el material en cualquier medio o formato.

Adaptar — remezclar, transformar y construir a partir del material.

Bajo los siguientes términos:

Atribución — Usted debe dar crédito de manera adecuada, brindar un enlace a la licencia, e indicar si se han realizado cambios.

No Comercial — Usted no puede hacer uso del material con propósitos comerciales.

Compartir Igual — Si remezcla, transforma o crea a partir del material, debe distribuir su contribución bajo la la misma licencia.


 
ESTE CONTENIDO NO TIENE COMENTARIOS