Tutoriales y Manuales
Entradas Mensuales
-
▼
2025
(Total:
2103
)
-
▼
diciembre
(Total:
441
)
-
OneXSugar Wallet, la primera consola con pantalla ...
-
Masivo robo de datos de pago de clientes de página...
-
Vulnerabilidad crítica en SmarterMail
-
Herramienta 'Asesino de Antivirus' VOID Killer eli...
-
Agencia Espacial Europea confirma ataque a servido...
-
Un radiador victoriano de 50 Kg como PC y sistema ...
-
Aprovechan función de Copilot para acceso oculto
-
Nvidia compra IP de Groq por $20 mil millones y af...
-
4 TB de memoria RAM DDR5 ECC UDIMM para servidores...
-
Símbolos de los puertos USB
-
Cinta Unix v4 restaurada permite usar sistema oper...
-
Reivindican ataque a base de datos de WIRED con 2....
-
Por qué UEFI es tan importante en cualquier ordenador
-
La cinta magnética vuelve con capacidad de hasta 4...
-
Se hacen pasar por la nube de Google
-
Ingeniero de Samsung acusado de filtrar datos a China
-
ESPectre: Wi-Fi doméstica como sensor de movimiento
-
La universidad online de Google: Google Skills
-
TurboDiffusion genera vídeos en local 200 veces má...
-
Cyberpunk 2077: Experiencia VHS impresionante con ...
-
Robots autónomos minúsculos cuestan un céntimo.
-
ChatGPT priorizaría el contenido patrocinado
-
Vulnerabilidad MongoBleed: hackeo a servidores de ...
-
Más de 87.000 instancias de MongoDB vulnerables a ...
-
Los Galaxy S26 y S26+ tendrán una GPU AMD Radeon R...
-
Cuánta memoria RAM han tenido las consolas
-
ChatGPT priorizaría contenido patrocinado
-
El AMD Ryzen 9 9950X3D2 se filtra mostrando su ren...
-
¿Realmente podrías quitar la fibra óptica y conect...
-
Microsoft ‘refuerza’ el desarrollo de Halo: Campai...
-
Las PyMEs son el sector más atacado por los ciberd...
-
¿Va mal tu Wi-Fi o es problema de tu móvil o PC?
-
Amiga con soporte NVMe y Ethernet
-
Mongobleed: Herramienta de exploit para vulnerabil...
-
El creador de JavaScript carga contra Windows 11 p...
-
Tarjeta prepago NFC con forma de disquete
-
Los drones chinos ya tienen capacidad de atacar te...
-
Vulnerabilidades de TeamViewer DEX permiten ataque...
-
EE.UU. quiere usar los reactores nucleares de barc...
-
Trust Wallet: extensión de Chrome hackeada - Usuar...
-
Fabricantes de tarjetas gráficas responden sobre l...
-
Los adaptadores SO-DIMM a DIMM se consolidan como ...
-
Algunos fabricantes de PC están pidiendo a los cli...
-
Windows Harden System Security es una herramienta ...
-
Un profesor utiliza Game Boy viejas para sus clase...
-
Miles de usuarios piden a Microsoft que vuelva Win...
-
El Galaxy Z TriFold se rompe en una prueba de resi...
-
Musk: xAI superará la capacidad de IA de todos en ...
-
Zen 6, la nueva arquitectura de AMD
-
Intel Granite Rapids-WS: el Xeon 654 de 18 Cores s...
-
Moore Threads anuncia sus GPUs Lushan y Huashan: H...
-
¿Qué es mejor?, utilizar cable de 16 pines o un ad...
-
NVIDIA firma un acuerdo histórico de 20.000 millon...
-
Adaptadores SODIMM a DIMM: un salvavidas ante la s...
-
Fortinet advierte sobre la explotación de una vuln...
-
AtlasOS vs ReviOS - Windows optimizado para jugar
-
Amazon entrega por error 20 SSD PCIe 5.0 por valor...
-
OpenMediaVault 8: sistema operativo para NAS
-
Vulnerabilidad crítica en Langchain expone secreto...
-
Distro Hacking Ético: Parrot 7.0: Novedades en pru...
-
Aficionados rusos planean fabricar su propia RAM DDR5
-
Google te permitirá cambiar pronto la dirección de...
-
AMD sigue liderando en ventas de CPU
-
Nvidia firma un acuerdo de licencia con Groq, una ...
-
¿Qué procesador necesito?: Según la tarjeta gráfica
-
Vulnerabilidad crítica de Net-SNMP
-
Eexplotan vulnerabilidad FortiGate para evadir 2FA...
-
Microsoft presenta BitLocker acelerado por hardwar...
-
Intel enseña su futuro multichip: retícula con esc...
-
Un año de exploits zero clic
-
Microsoft mejora la seguridad en Teams
-
Filtración de datos de la Universidad de Phoenix –...
-
Llega la multitarea a Gemini: el chatbot ahora te ...
-
Análisis completo: AMD Threadripper 9980X Vs Threa...
-
Programador usa tablet ePaper como pantalla secund...
-
Pool de minería de Bitcoin más antiguo celebra 15 ...
-
Explotación de vulnerabilidad en HPE OneView permi...
-
FLOPPINUX 💾: Linux es capaz de arrancar en un di...
-
¿Qué es 'brushing' y en qué consiste la estafa del...
-
Vulnerabilidad crítica de MongoDB
-
Google actualiza sus cámaras de seguridad
-
La nueva IA de Alibaba: clona voces con solo tres ...
-
PuTTY, el caballo de Troya perfecto
-
Por qué no debes usar tarjetas MicroSD para guarda...
-
Intel XMP 3.0 Refresh: nuevas memorias, velocidade...
-
Más de 56.000 usuarios descargaron una librería de...
-
Rusia puede desconectar a todo el país del Interne...
-
Un misil de 30 centímetros y 500 gramos de peso: e...
-
Corte de energía deja a algunos relojes atómicos d...
-
La RTX 5090D, la futura tarjeta gráfica de NVIDIA,...
-
Ransomware HardBit 4.0 ataca RDP y SMB para persis...
-
Intel supera a TSMC en EE. UU.
-
Interpol detiene a 574 por ciberdelitos en África
-
Descubren por qué los errores “persisten” en los o...
-
Mejorar la seguridad de Windows activando SmartScr...
-
EE. UU. prohíbe drones extranjeros de DJI y otros
-
Exempleados de Samsung arrestados por espionaje in...
-
AMD Zen 6 tendrá nueva jerarquía de caché: 2 CCD p...
-
La cara oculta de las SSD baratos sin DRAM
-
Nuevo malware MacSync roba datos a usuarios de mac...
-
- ► septiembre (Total: 148 )
-
▼
diciembre
(Total:
441
)
-
►
2024
(Total:
1110
)
- ► septiembre (Total: 50 )
-
►
2023
(Total:
710
)
- ► septiembre (Total: 65 )
-
►
2022
(Total:
967
)
- ► septiembre (Total: 72 )
-
►
2021
(Total:
730
)
- ► septiembre (Total: 56 )
-
►
2020
(Total:
212
)
- ► septiembre (Total: 21 )
-
►
2019
(Total:
102
)
- ► septiembre (Total: 14 )
-
►
2017
(Total:
231
)
- ► septiembre (Total: 16 )
-
►
2016
(Total:
266
)
- ► septiembre (Total: 38 )
-
►
2015
(Total:
445
)
- ► septiembre (Total: 47 )
-
►
2014
(Total:
185
)
- ► septiembre (Total: 18 )
-
►
2013
(Total:
100
)
- ► septiembre (Total: 3 )
-
►
2011
(Total:
7
)
- ► septiembre (Total: 1 )
Blogroll
Etiquetas
Entradas populares
-
La RTX 5090D , la futura tarjeta gráfica de NVIDIA, no podrá ejecutar juegos modernos a 60 FPS en resolución 5K , incluso utilizando DLSS, l...
-
ClothOff es una app que utiliza inteligencia artificial generativa para desnudar a cualquier persona a partir de fotografías con ropa que...
-
Analizamos qué procesador es ideal para cada tarjeta gráfica , destacando que el rendimiento gráfico depende en gran medida de la CPU ut...
En 2025 hubo más bots y herramientas de IA en Internet que usuarios humanos
En 2025, el número de bots y herramientas de IA en Internet superó al de usuarios humanos, confirmando la tendencia a una Internet más automatizada y menos humana.
La "teoría de la Internet muerta" se está volviendo realidad. O al menos, la red se está convirtiendo cada vez más en algo más automatizado y menos humano.
Hace poco un estudio ponía de manifiesto un dato preocupante: más de la mitad de lo que se publica en Internet ya está generado mediante inteligencia artificial. Si esta noticia ya de por sí no resultaba suficientemente alarmante, ahora otra investigación profundiza en la cuestión: este 2025 ya hubo más tráfico generado por bots e IA que por seres humanos.
¿Qué quiere decir esto exactamente? Pues que por primera vez desde que se creó Internet y comenzó a popularizarse entre la gente, las máquinas navegan más que las personas. Puede que la teoría de la "Internet muerta" sea exagerada, pero de lo que ya no hay duda es de que la red está más automatizada que nunca, y seguramente el fenómeno vaya en aumento.
Bots e IA, los dueños de Internet
Cloudflare, una de las mayores compañías de infraestructura y seguridad de Internet del mundo. Por eso sus análisis anuales sobre el tráfico de la red son siempre interesantes para los expertos. Este año, en cambio, se ha producido un punto de inflexión. Según su último estudio, Internet ya está dominada por bots y herramientas automatizadas, en gran medida a consecuencia de la IA.
Atendiendo a sus mediciones, menos de la mitad del tráfico web mundial ya procede de usuarios humanos, mientras que el resto corresponde a bots de todo tipo: desde rastreadores clásicos de buscadores hasta nuevas herramientas impulsadas por inteligencia artificial que analizan, copian, indexan o interactúan con páginas web de forma constante.
En realidad, el tema de los bots no es nuevo. El propio buscador de Google, sin ir más lejos, requiere de acceso a Internet constante para cumplir con su función. Lo que lo ha cambiado todo, explican los expertos, ha sido el auge que ha experimentado la inteligencia artificial, y herramientas como ChatGPT, que de alguna manera han invadido la red a todos los niveles.
La cuestión es que los modelos de lenguaje, asistentes virtuales y servicios basados en IA necesitan acceder continuamente a información online. Para ello, utilizan bots capaces de recorrer millones de páginas, a menudo en tiempo real, cada vez que un usuario hace una consulta. Y los usuarios hacen consultas todo el tiempo, como era de esperar, claro.
El tráfico fantasma que genera la IA
Lo que los expertos expresan es que más tráfico no siempre quiere decir que este sea mejor. Más bien al contrario. En realidad, si esta tendencia continúa, y todo hace suponer que continuará, puede terminar por suponer un problema serio para muchos medios digitales, para tiendas online o, incluso, para los ahora llamados creadores de contenidos.
- Tráfico permitido Allowed robots.txt
Los rastreadores de IA fueron los agentes de usuario a los que se les denegó totalmente el acceso con más frecuencia en los archivos robots.txt
El archivo robots.txt, definido formalmente en el estándar RFC 9309 como el Protocolo de exclusión de robots, es un archivo de texto que los propietarios de contenido pueden utilizar para indicar a los rastreadores web a qué partes de un sitio web pueden acceder. Esto se realiza mediante directivas para permitir o denegar el acceso a los rastreadores de búsqueda y de IA a todo el sitio o solo a partes del mismo. Las directivas del archivo son, en efecto, una señal de "prohibido el paso" y no proporcionan ningún control de acceso formal. Dicho esto, la función robots.txt administrado de Cloudflare actualiza automáticamente el archivo robots.txt existente de un sitio o crea un archivo robots.txt en el sitio que incluye directivas que solicitan a los operadores de bots de IA más populares que no utilicen el contenido para el entrenamiento de modelos de IA. Además, nuestras funciones de AI Crawl Control pueden rastrear las infracciones de las directivas robots.txt de un sitio, y dar al propietario del sitio la capacidad de bloquear las solicitudes del agente de usuario infractor.
En Cloudflare Radar, proporcionamos información sobre la cantidad de archivos robots.txt que se encuentran entre nuestros 10 000 principales dominios, así como la disposición total o parcial de las directivas "allow" (permiso) y "disallow" (denegación) que se encuentran en los archivos para los agentes de usuario rastreadores seleccionados. (En este contexto, "total" se refiere a las directivas que se aplican a todo el sitio, y "parcial" se refiere a las directivas que se aplican a rutas o tipos de archivos específicos). En el micrositio del Resumen del año mostramos cómo cambió la disposición de estas directivas a lo largo de 2025.
Los agentes de usuario con el mayor número de directivas totalmente no permitidas son los asociados a los rastreadores de IA, incluidos GPTBot, ClaudeBot y CCBot. Las directivas para los rastreadores Googlebot y Bingbot, utilizados tanto para la indexación de búsquedas como para el entrenamiento de la IA, se orientaban principalmente a la denegación parcial, probablemente enfocadas en aislar los puntos finales de inicio de sesión y otras áreas no relacionadas con el contenido de un sitio. Para estos dos bots, las directivas aplicables a todo el sitio representaron una pequeña parte del número total de directivas de no permitir observadas durante el año.
La explicación es sencilla: los bots y, sobre todo, la IA, consumen ancho de banda, recursos y todo eso, pero no generan ingresos porque, por así decirlo, su tráfico "no es real". Por no hablar de que en muchos casos copian contenido sin generar visitas para el sitio del que lo ha copiado. Un panorama complicado en el que, si se mira con cierta lógica, todo el mundo sale perdiendo.
El número de directivas explícitas "allow" encontradas en los archivos robots.txt descubiertos era una pequeña parte de las directivas "disallow" observadas, probablemente porque "allow" es la política predeterminada, en ausencia de cualquier directiva específica. Googlebot tenía el mayor número de directivas "allow" explícitas, aunque más de la mitad de ellas eran permisos parciales. Se encontraron directivas "allow" dirigidas a rastreadores de IA en menos dominios, y directivas dirigidas a los rastreadores de OpenAI que se inclinan más hacia permisos explícitos totales.
Google-Extended es un token de agente de usuario que los editores web pueden utilizar para gestionar si el contenido que Google rastrea de sus sitios se puede utilizar para entrenar modelos Gemini o para proporcionar contenido del sitio desde el índice de Búsqueda de Google a Gemini. El número de directivas de permiso dirigidas a este token se triplicó durante el año. La mayoría permitía el acceso parcial a principios de año, mientras que a finales de año se observó un mayor número de directivas que permitían explícitamente el acceso total al sitio en comparación con aquellas que solo permitían el acceso a una parte del contenido del sitio.
Fuentes:
https://computerhoy.20minutos.es/tendencias/ya-es-oficial-2025-hubo-mas-bots-herramientas-ia-internet-que-usuarios-humanos_6912847_0.html


Entrada más reciente
0 comentarios :
Publicar un comentario
Los comentarios pueden ser revisados en cualquier momento por los moderadores.
Serán publicados aquellos que cumplan las siguientes condiciones:
- Comentario acorde al contenido del post.
- Prohibido mensajes de tipo SPAM.
- Evite incluir links innecesarios en su comentario.
- Contenidos ofensivos, amenazas e insultos no serán permitidos.
Debe saber que los comentarios de los lectores no reflejan necesariamente la opinión del STAFF.