Tutoriales y Manuales
Entradas Mensuales
-
►
2024
(Total:
1019
)
- ► septiembre (Total: 50 )
-
▼
2023
(Total:
710
)
- ► septiembre (Total: 65 )
-
▼
marzo
(Total:
21
)
- Desarticulada en España una organización criminal ...
- Detenido en España un estafador que podía llegar a...
- Privacidad en TikTok: ¿qué información recolecta d...
- Microsoft presenta Security Copilot, un asistente ...
- Un ataque de ultrasonido inaudible permite control...
- Ataque Casper usa el altavoz interno de tu PC para...
- Los expertos exigen limitar el uso y desarrollo de...
- Europol advierte que ChatGPT ya está ayudando a ge...
- Fallece Gordon Moore, padre de Intel, y de la Ley ...
- Ferrari confirma que fue víctima de un ataque de r...
- Telepizza víctima de un ataque de ransomware del G...
- Ring, la marca de cámaras inteligentes de Amazon, ...
- Kali celebra 10º aniversario y presenta Kali Linux...
- Qué es el screen hacking o hackeo de pantalla y có...
- Un hombre atrapado en la nieve salva su vida atand...
- Acer confirma que ha sido hackeada: roban y venden...
- 10.000 dispositivos están infectados con Prometei,...
- 2 vulnerabilidades en TPM 2.0 permiten el acceso a...
- Vuelve Emotet, el troyano bancario, ahora mediante...
- Filtran gratis 2 millones de tarjetas de crédito y...
- El Hospital Clínic de Barcelona, víctima de un ata...
-
►
2022
(Total:
967
)
- ► septiembre (Total: 72 )
-
►
2021
(Total:
730
)
- ► septiembre (Total: 56 )
-
►
2020
(Total:
212
)
- ► septiembre (Total: 21 )
-
►
2019
(Total:
102
)
- ► septiembre (Total: 14 )
-
►
2017
(Total:
231
)
- ► septiembre (Total: 16 )
-
►
2016
(Total:
266
)
- ► septiembre (Total: 38 )
-
►
2015
(Total:
445
)
- ► septiembre (Total: 47 )
-
►
2014
(Total:
185
)
- ► septiembre (Total: 18 )
-
►
2013
(Total:
100
)
- ► septiembre (Total: 3 )
-
►
2011
(Total:
7
)
- ► septiembre (Total: 1 )
Blogroll
Etiquetas
Entradas populares
-
Después de ver qué es una vCPU y la diferencia entre núcleos (cores) e hilos en los procesadores, pasamos a explicar toda la nomenclatura d...
-
En el panorama en constante evolución de la seguridad de redes, OpnSense se ha convertido en una formidable solución de firewall. Nacido de...
-
Pese a que Gemini ofrece multitudes de opciones, recientemente, se ha dado a conocer una situación fuera de lo común. Hace unos días, un es...
Los expertos exigen limitar el uso y desarrollo de las IAs como ChatGPT
Grandes voces del panorama tecnológico entre los que se encuentran Elon Musk, fundador de Tesla o SpaceX, Steve Wozniak, fundador de Apple o el historiador Yuval Noah Harari, se han unido a más de 1.000 personas, entre las que se encuentran prestigiosos investigadores del campo de la inteligencia artificial y creadores, para firmar una carta abierta en la que piden parar la implementación de las nuevas inteligencias artificiales durante seis meses. La carta va dirigida a los laboratorios de IA que están ahora sumidos en una carrera descontrolada que impide gestionar y controlar adecuadamente los "profundos riesgos para la sociedad y la humanidad" que suponen.
- Grandes figuras de la inteligencia artificial como Max Tegmark, Andrew Yang, Elon Musk o Wozniak han pedido una pausa temporal (al menos 6 meses) para la creación de sistemas que superen GPT-4
"La IA avanzada podría representar un cambio profundo en la historia de la vida en la Tierra, y debería planificarse y gestionarse con el cuidado y los recursos correspondientes", dice la carta. "Lamentablemente, este nivel de planificación y gestión no se está produciendo, a pesar de que en los últimos meses los laboratorios de IA se han enzarzado en una carrera fuera de control para desarrollar y desplegar mentes digitales cada vez más poderosas que nadie -ni siquiera sus creadores- puede entender, predecir o controlar de forma fiable."
ChatGPT ha hecho que la inteligencia artificial se ponga de moda entre el gran público. Sus creadores, OpenIA, han liberado hace poco una nueva versión de este modelo de lenguaje, GPT-4, que se se ha presentado casi a la vez que la nueva versión de Midjourney, la IA generativa de imagen que es capaz de producir imágenes asombrosamente realistas de Trump siendo detenido o del Papa caminando por la calle con un gran plumas blanco que le viene tres tallas más grande.
Fotos falsas del Papa Francisco generadas mediante IA (Midjourney)
Consejos para descubrir una imagen falsa creada por inteligencia artificial
Para saber cuándo se trata de una imagen falsa generada por inteligencia artificial, hay que hacer el trabajo de un «detective visual», dice Brendan Paul Murphy, profesor de Medios Digitales de la CQUniversity de Australia. A veces basta con mirar fuera del punto focal de la escena. Si le echas un vistazo a las fotos de Trump, rápidamente te darás cuenta de que los otros elementos aparecen movidos o superpuestos. Pero no siempre es tan fácil.
Murphy propone, en un artículo publicado en The Conversation, que nos hagamos varias preguntas. La clave está en los detalles: ¿todos en la fotografía están iluminados de la misma manera?, ¿tienen sentido las sombras y los reflejos?, ¿las orejas y las manos muestran luces y sombras en los lugares correctos?, ¿qué se refleja en los ojos de las personas?
En la famosa imagen del Papa con el abrigo, por ejemplo, la sombra de
los lentes delata que se trata de una escena falsa. También el
recipiente superpuesto que está sosteniendo con una mano extrañamente
difuminada. Y hablando de manos, estas son imposibles en casi todas las
fotos de la falsa detención de Trump. Es precisamente esta parte del cuerpo la que más les cuesta recrear a las herramientas de inteligencia artificial.
Las manos como elemento clave
Las manos son difíciles de dibujar, incluso para los humanos. Una inteligencia artificial que genera imágenes lo hace a partir de una base gigante de millones de fotos, ilustraciones y otros datos, con la que sus creadores la han «entrenado». De hecho, Midjourney y otras herramientas parecidas han sido demandadas por artistas y agencias de fotografías por infringir los derechos de autor al usar sus trabajos sin consentimiento.
Las imágenes humanas, sean dibujos o fotografías, suelen mostrar las manos de manera menos visible que otras partes del cuerpo. Por lo general, están dobladas o gesticulando. Por eso son tan difíciles de copiar. Pero los desarrolladores ya están al tanto de esto.
Pero, mientras nos divertimos pidiendo consejo a ChatGPT sobre cómo animar nuestra vida amorosa o convertimos al cantante Snoop Dog
en el protagonista de las series de televisión más famosas de la
historia, un grupo de pesos pesados de la industria, investigadores e
intelectuales han dicho “hasta aquí hemos llegado”. Los firmantes instan
a los principales laboratorios de inteligencia artificial del mundo a
parar durante seis meses el entrenamiento de estos potentes sistemas, ya
que sus recientes avances presentan "profundos riesgos para la sociedad
y la humanidad".
Esto se une a la cascada de declaraciones que hemos venido escuchando estos últimos días por parte de varios pesos pesados de la industria e intelectuales que han alertado del poder destructivo de estas tecnologías y exigen poner límites antes de que sea demasiado tarde. Un ejercicio que también hicimos en Novaceno con el episodio 5 de Control Z: ‘El Fin de la Realidad’, que pueden ver más arriba.
Para el historiador israelí y autor del ‘bestseller’ ‘Sapiens’, Yuval Noah Harari, tecnologías como ChatGPT es nuestra segunda ola de contacto con la inteligencia artificial. Esta ola es mucho más grande y ruidosa que la primera, aunque eso no quiere decir que no haya sido peligrosa. Los tejemanejes de la primera ola de IA, responsable de distribuir el contenido generado por los usuarios en las redes sociales y maximizar la participación, han logrado aumentar la polarización social. Hasta tal punto que ha conseguido —según apunta Harari en una columna del New York Times escrita junto a escrito Tristan Harris y Aza Raskin, fundadores de la ONG Center for Humane Technology— que los ciudadanos estadounidenses no puedan ni siquiera ponerse de acuerdo sobre quién ganó las últimas elecciones.
Harari y el resto de autores reconocen los beneficios que puede traer la inteligencia artificial a la humanidad, señalando que "tiene el potencial de ayudarnos a vencer el cáncer, descubrir fármacos que salven vidas e inventar soluciones para nuestras crisis climática y energética". Sin embargo, el hecho de que las nuevas inteligencias artificiales dominen el lenguaje las hace muchísimo más peligrosas, porque eso significa que pueden "piratear y manipular el sistema operativo de la civilización".
La IA a años luz de la regulación
Los investigadores, aseguran que ya hemos perdido la batalla contra la primera ola de la inteligencia artificial y como no nos demos prisa vamos a perder también la segunda. Y advierten de que el momento de lidiar con la Inteligencia Artificial es "antes de que nuestra política, nuestra economía y nuestra vida cotidiana pasen a depender de ella. Si esperamos a que se produzca el caos, será demasiado tarde para remediarlo".
Harari remata diciendo que cuando se trata de desplegar la tecnología más trascendental de la humanidad, la carrera por dominar el mercado no debe marcar la velocidad, sino que deberíamos movernos a la velocidad que nos permita hacerlo bien.
Esto se puede interpretar como un palo a Altman y OpenIA, que asumieron el riesgo de abrir ChatGPT al público sin conocer del todo su alcance. Sin embargo, el propio Altman sostiene que la sociedad necesita más tiempo para adaptarse a la inteligencia artificial.
La llave para el control de la civilización
Sam Altman, el director general de OpenAI, la compañía que está detrás de ChatGPT o Dall-e (otra IA similar a Midjourney), participó hace unos días en el popular podcast del investigador de MIT, Lex Friedman. En las casi dos horas y media de conversación, Altman habló fundamentalmente de GPT-4, la nueva versión de su ya famoso modelo de lenguaje y reconoció que, a pesar de sus "enormes beneficios", también nos aboca a riesgos sin precedentes.
"Creo que es raro cuando la gente piensa que es una metedura de pata que yo diga: ‘tengo un poco de miedo’", dijo Altman a Fridman. "Y creo que sería una locura no tener un poco de miedo y empatizo con la gente que tiene mucho miedo".
Fuentes:
https://hipertextual.com/2023/03/como-identificar-imagen-falsa-creada-por-inteligencia-artificial
0 comentarios :
Publicar un comentario
Los comentarios pueden ser revisados en cualquier momento por los moderadores.
Serán publicados aquellos que cumplan las siguientes condiciones:
- Comentario acorde al contenido del post.
- Prohibido mensajes de tipo SPAM.
- Evite incluir links innecesarios en su comentario.
- Contenidos ofensivos, amenazas e insultos no serán permitidos.
Debe saber que los comentarios de los lectores no reflejan necesariamente la opinión del STAFF.