Tutoriales y Manuales
Entradas Mensuales
-
▼
2026
(Total:
2396
)
-
▼
abril
(Total:
71
)
-
Vulnerabilidades críticas en Grafana permiten ejec...
-
Vulnerabilidad crítica en n8n permite ejecución re...
-
El precio de PS6 va a ser un problema: la consola ...
-
Sitios web para descargar libros electrónicos grat...
-
Neal Mohan, CEO de Youtube, sobre los "contenidos ...
-
Xiaomi hace inteligente la regleta de enchufes: co...
-
Las NVIDIA GeForce RTX 60 ofrecerían una mejora de...
-
Hasbro ha sido hackeada: sus webs están caídas y l...
-
Comparación entre un cable de audio boutique de 4....
-
Los términos de servicio de Microsoft Copilot etiq...
-
Extensiones de Chrome que hacen NotebookLM mucho m...
-
Kioxia dejará la NAND barata: adiós a la memoria 2...
-
Tecnologías que van a definir el futuro del gaming
-
Chrome acumula 4 vulnerabilidades 0-day explotados...
-
La NASA acelera su plan para volver a la Luna
-
Fujitsu y Rapidus aceleran la carrera japonesa por...
-
Xbox Triton, el plan más Microsoft de Game Pass
-
El error que estás cometiendo con las antenas de t...
-
Oracle despide a 30.000 empleados para impulsar su...
-
Cómo un fallo en una librería de Python puede comp...
-
Vulnerabilidad crítica en el piloto automático PX4...
-
El marco de malware VoidLink demuestra que el malw...
-
India prohibirá la venta de productos Hikvision, T...
-
El rootkit VoidLink usa eBPF y módulos del kernel ...
-
TA416 amplía operaciones de espionaje en Europa co...
-
Google lanza una IA que busca por ti mientras le h...
-
Artemis II despega hacia la Luna
-
Google prueba una función para cargar tu móvil And...
-
Sony deja de vender tarjetas de memoria SD y CFexp...
-
Vulnerabilidad en IDrive para Windows permite esca...
-
OpenAI recauda 122.000 millones de dólares en su ú...
-
Xbox Helix: posibles especificaciones, rendimiento...
-
El Intel Core 3 304 (Wildcat Lake) en Geekbench mo...
-
Paquete PyPI de Telnyx con 742.000 descargas compr...
-
ASUS Zenbook A16: Snapdragon X2 Elite y más de 21 ...
-
Páginas falsas de CAPTCHA de Cloudflare propagan e...
-
En España a partir del 1 de abril ya no tendrás qu...
-
Los precios de la DRAM podrían subir un 63% en el ...
-
Microsoft establece prioridad total a la barra de ...
-
Sin piernas ni ruedas: así es el robot Icarus Robo...
-
Un youtuber demuestra en vídeo que los cables de a...
-
Actualización de emergencia de Windows 11 para sol...
-
Google pone fecha tope para la criptografía poscuá...
-
Vulnerabilidades críticas de RCE en WebLogic
-
Microsoft emite actualización de emergencia para W...
-
Anthropic confirma la filtración del código fuente...
-
Nueva vulnerabilidad de día cero en Chrome explota...
-
Redes como Youtube o Instagram están pensadas para...
-
Meta llega a un acuerdo con Entergy Corp. y financ...
-
La memoria DDR5 ha comenzado a bajar de precio: lo...
-
Intel Wildcat Lake (Core 300): especificaciones de...
-
FRITZ!Box 6825 4G ya disponible en España: olvídat...
-
La misión Artemis II de la NASA no tiene nada que ...
-
CISA advierte sobre vulnerabilidad en F5 BIG-IP ex...
-
Hackers norcoreanos comprometen paquete Axios para...
-
Cómo aprovechar al máximo el potencial de las gráf...
-
Fortnite podría ser de Disney: quiere comprar Epic...
-
Anthropic filtra por error el código fuente de Cla...
-
Google Drive tiene una función de IA que no vas a ...
-
El código fuente de Claude de Anthropic supuestame...
-
La librería de JavaScript Axios con 80 millones de...
-
Investigadores desarrollan tecnología "Wi-Fi" de p...
-
Una cocinera ha recreado recetas reales generadas ...
-
Todd McKinnon, experto en ciberseguridad, sobre el...
-
Google Gemini podría permitir crear avatares 3D de...
-
Taiwán experimenta la peor escasez de agua de los ...
-
Wikipedia no quiere artículos escritos por la IA
-
Google lleva la música generativa al siguiente niv...
-
La IA ya domina el ajedrez… por eso los humanos va...
-
AMD lanzó la Radeon HD 6990 de doble GPU hace 15 a...
-
Agentes fronterizos de Hong Kong pueden exigir con...
-
-
▼
abril
(Total:
71
)
-
►
2025
(Total:
2103
)
- ► septiembre (Total: 148 )
-
►
2024
(Total:
1110
)
- ► septiembre (Total: 50 )
-
►
2023
(Total:
710
)
- ► septiembre (Total: 65 )
-
►
2022
(Total:
967
)
- ► septiembre (Total: 72 )
-
►
2021
(Total:
730
)
- ► septiembre (Total: 56 )
-
►
2020
(Total:
212
)
- ► septiembre (Total: 21 )
-
►
2019
(Total:
102
)
- ► septiembre (Total: 14 )
-
►
2017
(Total:
231
)
- ► septiembre (Total: 16 )
-
►
2016
(Total:
266
)
- ► septiembre (Total: 38 )
-
►
2015
(Total:
445
)
- ► septiembre (Total: 47 )
-
►
2014
(Total:
185
)
- ► septiembre (Total: 18 )
-
►
2013
(Total:
100
)
- ► septiembre (Total: 3 )
-
►
2011
(Total:
7
)
- ► septiembre (Total: 1 )
Blogroll
Etiquetas
Entradas populares
-
Filtran 93 GB de datos "anónimos" de la policía , revelando que no son tan seguros como se creía y poniendo en riesgo a ciudadan...
-
El truco del "Cupcake" permite detectar cuándo ChatGPT, Gemini, Copilot y otras IA se inventan respuestas, ayudando a distinguir...
-
Un error con las antenas del router WiFi es colocarlas en direcciones incorrectas , lo que reduce la velocidad de Internet; ajustar su p...
Los términos de servicio de Microsoft Copilot etiquetan a Copilot como solo para fines de entretenimiento
Los términos de servicio de Microsoft para su asistente de IA Copilot incluyen un descargo de responsabilidad notable que ha generado un renovado escrutinio por parte de las comunidades de seguridad y empresariales: el producto está destinado únicamente para fines de entretenimiento.
Según los términos de uso oficiales de Copilot, Microsoft afirma explícitamente que Copilot puede cometer errores, puede no funcionar como se espera y no debe ser utilizado para tomar decisiones importantes o recibir asesoramiento.
Más significativo aún, Microsoft renuncia a todas las garantías y representaciones sobre los resultados de Copilot, incluyendo cualquier aseguramiento de que las respuestas no infringirán derechos de autor, marcas registradas o derechos de privacidad. Los términos colocan toda la responsabilidad en los usuarios que elijan publicar o compartir contenido generado por la herramienta.
La divulgación de Hedgie destaca una tensión significativa entre la postura legal de Microsoft y su mensaje comercial. La compañía está promocionando Copilot a clientes empresariales a 30 dólares por usuario al mes.
Está integrando directamente esta tecnología en sus principales plataformas de productividad, como Word, Excel, Outlook y GitHub, presentándola como una herramienta poderosa que puede mejorar la productividad y optimizar los flujos de trabajo empresariales a gran escala.
Sin embargo, la letra pequeña cuenta una historia diferente. Los términos de servicio son documentos legalmente vinculantes, y en cualquier disputa, los tribunales se basan en el contrato escrito, no en presentaciones de ventas o campañas de marketing.

Las organizaciones que implementan Copilot a gran escala para generar código, redactar contratos, producir comunicaciones dirigidas a clientes o ayudar con documentación de cumplimiento lo hacen, según los propios términos de Microsoft, enteramente bajo su propio riesgo.
Implicaciones para equipos empresariales y de seguridad
Para los profesionales de ciberseguridad y los equipos legales, los descargos de responsabilidad plantean preocupaciones inmediatas en varios ámbitos:
- Exposición a propiedad intelectual: Microsoft no ofrece garantía de que los resultados de Copilot estén libres de infracción de derechos de autor o marcas registradas, lo que significa que cualquier contenido generado por IA y publicado podría exponer a la organización a reclamaciones de terceros por propiedad intelectual.
- Responsabilidad en privacidad de datos: La exclusión explícita sobre derechos de privacidad podría complicar las obligaciones de cumplimiento bajo el GDPR, la CCPA y otros marcos regulatorios.
- Riesgo de integridad del código: Los equipos de desarrollo que utilicen GitHub Copilot para generar código de producción asumen toda la responsabilidad por cualquier vulnerabilidad de seguridad, violación de licencias o fallos funcionales en ese resultado.
- Riesgo en contratos y documentos legales: Las organizaciones que usen Copilot para redactar acuerdos o presentaciones regulatorias no tendrán recurso contra Microsoft si esos documentos contienen errores o lenguaje legalmente problemático.
El momento en que esta divulgación ha ganado atención es notable. Microsoft recientemente congeló la contratación en su división de nube para redirigir la inversión hacia infraestructura de IA, un movimiento que señala que la compañía está apostando fuertemente por Copilot como generador de ingresos.
Esa postura comercial agresiva hace que los términos de servicio que limitan la responsabilidad sean aún más relevantes para los compradores empresariales que podrían no haber sometido el acuerdo a una revisión legal rigurosa antes de su implementación.
Los equipos de seguridad y cumplimiento deberían tratar los resultados generados por IA como borradores no verificados que requieren revisión humana antes de cualquier publicación o uso operativo.
Los departamentos legales deberían evaluar si las prácticas actuales de implementación de Copilot se alinean con la tolerancia al riesgo de su organización, especialmente en industrias reguladas. Los términos de uso de Microsoft Copilot están disponibles públicamente en microsoft.com/en-us/microsoft-copilot/for-individuals/termsofuse.
La brecha entre lo que vende un proveedor y lo que garantiza legalmente siempre ha sido importante. Con la IA integrada en flujos de trabajo empresariales críticos, esa brecha nunca ha sido más amplia ni más significativa.
Fuentes:
https://cybersecuritynews.com/microsoft-copilot-terms-of-service/

Entrada más reciente
0 comentarios :
Publicar un comentario
Los comentarios pueden ser revisados en cualquier momento por los moderadores.
Serán publicados aquellos que cumplan las siguientes condiciones:
- Comentario acorde al contenido del post.
- Prohibido mensajes de tipo SPAM.
- Evite incluir links innecesarios en su comentario.
- Contenidos ofensivos, amenazas e insultos no serán permitidos.
Debe saber que los comentarios de los lectores no reflejan necesariamente la opinión del STAFF.