Tecnología - Colombia
Registro  /  Login

Portal de Negocios en Colombia

TECNOLOGÍA

La IA puede convencerte de a quién votar en las próximas elecciones

La inteligencia artificial generativa es un arma poderosa. En apenas unos segundos, herramientas como ChatGPT o Gemini pueden contestar, prácticamente, a cualquier pregunta que se les haga. Otra historia distinta es que el resultado que ofrece sea correcto o falso, o la capacidad … de la máquina para hacer cambiar de opinión al internauta sobre algún tema concreto, como podría ser el candidato al que votar en las próximas elecciones. Dos estudios, publicados en las revistas ‘Nature’ y ‘Science’, han demostrado ahora el potencial que tienen los robots parlantes movidos por IA a la hora de influir en las opiniones políticas de los usuarios. También plantean importantes preocupaciones sobre el efecto de la desinformación generada por esta tecnología.
«Los chatbots pueden influir significativamente en la actitud de la gente hacia los candidatos presidenciales y sus políticas, y lo hacen aportando numerosas afirmaciones fácticas que respaldan su postura», afirma David Rand , profesor de Ciencias de la Información y Marketing y Gestión de la Comunicación, y autor principal de ambos artículos. «Sin embargo, estas afirmaciones no son necesariamente precisas, e incluso los argumentos basados en afirmaciones precisas pueden inducir a error por omisión», destaca a continuación.

En el primer estudio, publicado en ‘Nature’ y dirigido por investigadores de la universidad estadounidense de Cornell, se puso a prueba la capacidad de las máquinas para cambiar la opinión de los votantes. Para ello instruyeron a una herramienta basada en IA para que debatiese con 2.306 voluntarios sobre las elecciones presidenciales estadounidenses de 2024, que enfrentaron a la demócrata Kamala Harris con el republicano, y actual presidente, Donald Trump.
Cada uno de los participantes tenía ya una opinión formada sobre los candidatos, y antes de proceder con el estudio tuvieron que responder a un cuestionario en el que debían calificarlos a ellos y sus políticas en una escala del 0 al 100. Los autores, además, prepararon dos versiones del chatbot, una más favorable a Harris y otra a Trump. El objetivo de la máquina eran aumentar la aceptación del candidato que le había tocado y, si el participante apoyaba al otro, tratar de hacerle dudar sobre a quién votar.

El PSOE registra en el Congreso la solicitud de comparecencia de Mark Zuckerberg y otros dos directivos de Meta

El PSOE ha registrado en el Congreso la solicitud de comparecencia del fundador y director ejecutivo de Meta, Mark Zuckerberg; del jefe de operaciones (COO) de la compañía, Javier Oliván; y del director de Asuntos Públicos de Meta para España y Portugal, … José Luis Zimmermann, ante «la posible violación masiva de la privacidad de millones de usuarios».
Así lo ha dado a conocer este jueves el PSOE en un comunicado, en el que detalla que, además, los socialistas han solicitado la comparecencia de expertos en la materia ante la Comisión de Economía, Comercio y Transformación Digital de la Cámara Baja.

En este sentido, el PSOE ha explicado que estas peticiones de comparecencias «se derivan la información revelada por varios centros europeos sobre la posible violación de la privacidad de millones de usuarios en España y Europa«.

Durante su participación en el IV Foro Metafuturo, que organiza Atresmedia, el presidente del Gobierno, Pedro Sánchez, anunció la apertura de una investigación para «esclarecer lo ocurrido, garantizar responsabilidades y proteger los derechos fundamentales que puedan haber sido vulnerados«. »El Gobierno lo tiene claro: en España, la ley está por encima de cualquier algoritmo o gran tecnológica. Y quien vulnere nuestros derechos, pagará las consecuencias«, afirmó.

OpenAI entra en 'código rojo' ante la amenaza de Google para ChatGPT

Hace exactamente tres años, OpenAI puso patas arriba internet con el lanzamiento de ChatGPT, una máquina capaz de responder, prácticamente, cualquier pregunta lanzada por el usuario y que, por entonces, no tenía competencia alguna en la red. Evidentemente, eso cambió rápido. En cuestión … de meses, empresas como Google, xAI, Anthropic o Meta pusieron en línea herramientas que eran capaces de ofrecer lo mismo. Y a pesar de que la máquina de Sam Altman sigue llevando la delantera en la guerra de la IA, el resultado definitivo está lejos de estar decidido. Porque aquí nadie piensa ceder fácilmente ni un solo palmo de terreno. La victoria se venderá cara.
Este lunes, Altman informó a los empleados de que OpenAI había entrado en ‘código rojo’, y que desde ese mismo día el principal objetivo de la compañía pasaba por mejorar el funcionamiento de ChatGPT. Los demás proyectos sobre la mesa, como esos futuros dispositivos basados en IA que, de acuerdo con los analistas, podrían ser presentados a finales de 2026 quedan en un segundo plano. ¿La razón? Que la competencia cada vez tiene tecnología más potente. Sobre todo Google. La firma de Mountain View lanzó hace escasas semanas una nueva versión de su robot conversacional Gemini que supera ampliamente a ChatGPT en los indicadores del sector, lo que implica que es capaz de ofrecer mejores resultados que la máquina de OpenAI.

«Google estaba en silencio, y en cuanto ha podido ha comenzado a adelantar a OpenAI por la derecha. Hasta creo que cuando sacaron la versión GPT 5.1 de ChatGPT (el 12 de noviembre) fue porque estaban con la preocupación de que Google iba a lanzar algo mejor pronto», explica a ABC el analista de negocio digital José Luis Casal. En la misma línea, precisamente, se mueve Luis Martín, jefe de soluciones de IA de Llorente y Cuenca, que apunta que el buscador ha sabido tener paciencia en la carrera: «Google también apretó el ‘botón rojo’ en 2022 cuando se lanzó ChatGPT, pero apostó por ir mucho más lento y seguro que por lanzar productos tan rápido como ha hecho OpenAI».
«Ahora, tres años después, ha llegado Gemini 3, , que es súper competente en todos los ámbitos. Razona mejor que ChatGPT, es muy bueno programando y está mucho mejor integrado, porque es compatible con el ecosistema de Google. La última versión de Nano Banana, para la creación de imágenes también es muy buena», completa el ejecutivo.

¿Podrá la DGT espiarte con la baliza V16 obligatoria para multarte?: Protección de Datos responde

A partir del próximo 1 de enero todos los conductores españoles estarán obligados a llevar en sus una baliza V16; que deberá estar conectada para señalizar averías o situaciones de emergencia en carretera. Todo para ayudar a las autoridades a encontrar la ubicación … exacta del incidente. Durante las últimas semanas, han estado corriendo por la red varios mensajes de usuarios preocupados porque este dispositivo ponga en riesgo su privacidad. Si a través de la señal que emiten, la DGT podrá tenerlos ubicados en todo momento para multarlos.
Con el fin de «ofrecer información a la ciudadanía», la Agencia Española de Protección de Datos (AEPD) ha realizado un comunicado en el que remarca que la baliza de preseñalización de peligro V16 no comparte ninguna información personal o la matrícula del vehículo. El dispositivo, que incorpora una luz visible, envía un aviso automático a los sistemas de tráfico cuando se activa. En la comunicación, solo se transmite el lugar donde se encuentra el coche o la moto averiada y un identificador técnico de la propia baliza.

Ahora bien, la AEPD remarca que ese identificador «no está asociado a una persona o matrícula, sin que exista un registro que vincule el dispositivo con la identidad de quien lo utiliza». Es decir, no hay forma de que la DGT o cualquier autoridad sepan, en el momento en el que reciben la señal, cuál es el vehículo que está detenido ni a quien pertenece. Por lo tanto, es imposible que se pueda utilizar para poner multas, ya que la baliza V16 no está preparada para medir la velocidad a la que se circula.
La AEPD también destaca que «la persona que adquiere la baliza no tiene que dar sus datos personales a ninguna administración al adquirirlo, por lo que la Dirección General de Tráfico (DGT) no conocería quién ha comprado el dispositivo». Además, mientras no está activa -lo que será lo normal- esta no transmitirá «ningún dato y, en caso de ser activada ante una situación de emergencia, la información que se envía no permitiría conocer quién es la persona que conduce ni reconstruir sus desplazamientos». El dispositivo, efectivamente, no es capaz de generar historiales de movimientos o envío de datos de manera continua.

Cloudflare asegura que la interrupción de sus servicios fue ocasionada por un fallo interno y descarta los ciberataques

Cloudflare ha aclarado que la reciente interrupción en su red que impidió a los usuarios acceder a servicios como X o ChatGPT, no ha sido ocasionado por un ciberataque o actividad maliciosa «ni directa ni indirectamente», sino que se debió a un fallo en … un sistema de gestión de bots.
La compañía de servicios de seguridad de internet y servidores experimentó una interrupción en sus servicios durante este martes 18 de noviembre. Esto ocasionó que los usuarios no pudiesen acceder a los sitios de los clientes, encontrando en su lugar una página de error que indicaba un fallo en la red.

Aunque el incidente se resolvió el mismo martes y apenas duró unas horas, el cofundador y director ejecutivo de Cloudflare, Matthew Prince, ha querido explicar las causas de este fallo.

Así, en un comunicado en su web recogido por Europa Press, ha matizado que, inicialmente, sospecharon erróneamente que los síntomas se debían a un ataque DDoS a gran escala. Esto es, un ataque de denegación de servicio distribuido, es decir, una acción maliciosa con la que el atacante envía demasiadas solicitudes al mismo servidor a la vez, con la intención de sobrecargarlo. Como resultado el servidor no puede manejar las peticiones y deniega el acceso al servicio.

Descubren una vulnerabilidad en WhatsApp que puso en peligro los datos de 3.500 millones de usuarios

Una vulnerabilidad en WhatsApp ha permitido identificar 3.500 millones de cuentas activas a nivel global en el servicio de mensajería como parte de una investigación que ha usado un generador de números y que ha ayudado a corregir el fallo para evitar la … exposición de estos datos.
Los nuevos usuarios de WhatsApp pueden descubrir si los contactos que tienen guardados en la agenda del móvil tienen una cuenta en el servicio de mensajería con solo permitir el acceso de la aplicación a este elemento. Esto es posible porque WhatsApp guarda un registro de sus usuarios vinculado a sus números de teléfono para facilitar este descubrimiento.

Sin embargo, este mecanismo «se puede utilizar indebidamente para comprobar si un individuo específico (como un funcionario gubernamental, una expareja o un empleador) está registrado en WhatsApp» con solo saber el número de teléfono, como ha advertido un grupo de investigadores de la Universidad de Viena y la Universidad Técnica de Viena (Austria).
Si bien WhatsApp ha mejorado la privacidad, este mecanismo se puede explotar para crear bases de datos a gran escala con los registros de los números de teléfono, que posteriormente actores maliciosos pueden usar en campañas de ‘spam’, ‘phishing’ o llamadas automatizadas.

Europa propone cambios en la ley para competir en inteligencia artificial con EE.UU. y China

Después de haber creado las leyes para el control de los gigantes tecnológicos más ambiciosas de todo occidente, la Unión Europea quiere que sus empresas sean más competitivas; sobre todo en materia de inteligencia artificial. La Comisión Europea ha propuesto este miércoles varios cambios … legislativos con los que espera que las compañías «dediquen menos tiempo a tareas administrativas y de cumplimiento normativo y más tiempo a innovar y expandirse». En caso de que el plan salga adelante, algo que todavía no está claro, los cambios afectarán de lleno a la Ley de IA y al Reglamento General de Protección de Datos (RGPD).
«En la UE contamos con todos los ingredientes para el éxito: talento, infraestructura y un amplio mercado único interno. Sin embargo, nuestras empresas, especialmente las emergentes y las pequeñas, a menudo se ven frenadas por una burocracia excesiva», ha señalado en un comunicado la comisaria de Soberanía Tecnológica de la UE, Henna Virkkunen.

Para lograr este fin, dejar algo de lado el papel de regulador tecnológico y recortar distancias en innovación e IA con EE.UU. y China, la Comisión propone realizar cambios en el RGPD para facilitar el que las empresas de inteligencia artificial puedan entrenar a sus herramientas con los datos personales de los usuarios. Algo que beneficiará, de seguro, a tecnológicas europeas como Mistral; pero también a gigantes estadounidenses como OpenAI, Google o Meta.
Además, se pone sobre la mesa la posibilidad de aplazar hasta 16 meses; es decir, hasta 2027, la aplicación de las normas de la UE para sistemas de IA de alto riesgo, que son aquellos que están vinculados, por ejemplo, a la identificación biométrica, la explotación de infraestructuras críticas, la educación o la salud. Los chatbots como ChatGPT o Gemini también ganarían tiempo para comenzar a cumplir con los requisitos de transparencia a los que obliga la Ley de IA.