Tecnología - Colombia
Registro  /  Login

Portal de Negocios en Colombia

TECNOLOGÍA

Acusan a TikTok de viralizar vídeos racistas hechos con la IA de Google

03/07/2025 a las 13:01h.

Los vídeos racistas creados con IA se están convirtiendo en un problema en TikTok. Así lo señala en una investigación Media Matters, organización sin ánimo de lucro estadounidense dedicada a la vigilancia de los medios de comunicación, que apunta que muchos de ellos podrían haber sido creados con la flamante herramienta de generación de contenido Veo 3, creada por Google.
Entre los vídeos localizados por la organización destacan los contenidos en los que se se asocia a gente negra con monos o criminales, uno de ellos ha llegado a recibir más de 14,2 millones de visualizaciones en la ‘app’ de origen chino.

«Los usuarios también publican videos engañosos generados por IA sobre inmigrantes y manifestantes, incluyendo videos en los que manifestantes son atropellados por autos», señalan desde Media Matters. La asociación, además, destaca un contenido «especialmente distópico» en el que aparecen «campos de concentración y ataques del Ku Klux Klan contra estadounidenses negros».

Este tipo de contenido está prohibido según las políticas de TikTok. La red social prohíbe la subida de vídeos que deshumanizan a grupos raciales y étnicos, así como los que «amenazan o expresan el deseo de causar daño físico a una persona o un grupo». Sea como sea, esta no sería, ni mucho menos, la primera vez que el sitio experimenta problemas a la hora de retirar contenido prohibido. La empresa recientemente despidió a parte de su equipo internacional de moderadores para delegar parte del trabajo, precisamente, en la inteligencia artificial.

El inventor madrileño que le ha ganado 110 millones a Apple: «Hemos demandado al 80% del mercado móvil americano»

Tras pasar por la gran empresa y terminar sus estudio en ingeniería aeroespacial, el madrileño Álvaro López-Medrano comenzó a meditar la posibilidad de aplicar lo aprendido en el control de satélites a la telefonía móvil. En 2002, fundó la empresa TOT Power Control … y formó un equipo del que surgió la patente de una tecnología que, a día de hoy, está presente en la inmensa mayoría de los ‘smartphones’ que copan los estantes de las tiendas, y que es capital para que la cobertura en las llamadas sea mucho más estable de lo que lo era antes.
«Durante diez años hablamos con toda la industria para mostrársela, con empresas como Vodafone, Telefónica o Qualcomm. Nos mostraron interés muchas de ellas, pero en la mayoría de casos acabó en nada. Luego llegó la sorpresa, que en realidad no lo fue tanto«, recuerda el ingeniero en conversación con ABC.
En 2015, Medrano y sus compañeros se dieron cuenta de que, en silencio, muchas empresas estaban haciendo uso de su tecnología, por lo que decidieron «pivotar» el modelo de negocio y comenzar a dedicarse, casi en exclusiva, a poner demandas a todas aquellas que habían infringido sus derechos de autor. Y entre estas se encontraba Apple. Este mismo lunes, un jurado popular de Delaware (EE.UU.) condenó a la firma de la manzana a pagar a TOT 110 millones de dólares (unos 93,4 millones de euros) por emplear su tecnología en todos sus dispositivos. En concreto, a través de los módem fabricados por Qualcomm que incorporan en su interior.
«El juez ha señalado que nuestra patente está presente en todos los iPhone, iPad y Apple Watch que la compañía está comercializando», apunta el empresario español.

Sea como sea, la empresa del iPhone no es la primera a la que TOT ha demandado por hacer uso de su solución. En 2015 ya denunciaron a Vodafone y Huawei, que fueron las dos compañías con las que provocaron la tecnología durante dos semanas en la década pasada; con la primera llegaron a un acuerdo para retirar la demanda, mientras que el segundo caso está actualmente en manos del Tribunal Supremo, que se espera que dicte sentencia al respecto el próximo año. TOT también ha presentado querellas contra otras empresas como Xiaomi, LG, Samsung o las telecos AT&T y TMobile.
«A veces son demandas por antenas y otras por los chips de los terminales, porque nuestra tecnología está presente en las dos. La patente ayuda a optimizar la potencia en las llamadas y mejora la estabilidad de las conversaciones en las situaciones en las que la cobertura no es la mejor. También aumenta la capacidad de descargar datos», señala Medrano.
El ingeniero remarca que, en realidad, «no le sorprendió mucho» que las grandes tecnológicas estuvieran haciendo uso de su tecnología: «Estas historias de David contra Goliat muchas veces acaban así en tecnología, con la infracción de la propiedad intelectual. Nos dimos cuenta de que la solución había sido un éxito y que lo estaban usando. A lo largo de estos años hemos demandado aproximadamente al 80% del mercado de teléfonos móviles americanos por ello«.

Jugamos a 'Rematch': el fútbol arcade vuelve a la cancha para ser el juego de este verano

02/07/2025 a las 10:43h.

Vamos a ser sinceros. El que firma este análisis le aburre el fútbol. Si puede evitar verlo, —si no está de fondo en una reunión con amigos o si le invitan al estadio de un equipo— mejor. Tampoco era de jugar de pequeño con los colegas al ‘FIFA’ o al ‘PES’, aunque alguna tarde con el ‘FIFA Street’ si que ha pasado. Sin embargo, si hay un juego de fútbol al que ha jugado, y mucho, es el ‘Rocket League’. Por eso se quedó sorprendido cuando los chicos de Sloclap, el estudio francés detrás de ‘Sifu’, mostraron que estaban trabajando en un título que buscaba revivir esa sensación de pachanga, con regates, pases y tiros espectaculares. Sin normas y sin pausas. Dinámico y desafiante. Era todo lo que quería, lo que le divertía del fútbol.
‘Rematch’ no es una fusión de fútbol con coches, pero sí que un multijugador arcade de fútbol sin normas, con golazos por doquier y un estadio a reventar que celebra con tu equipo cuando ese pase seguido de una elevación del esférico acaba entrando en la portería. Y es que el concepto de ‘Rematch’ es de lo más adictivo. Se trata de partidos 3vs3, 4vs4 o 5vs5 dependiendo de si queremos un enfoque más destinado a practicar nuestra técnica o a poner en marcha nuestra visión de juego. Y su planteamiento es muy diferente con el resto de juego deportivos.

Portero, delantero, defensa… un todo en uno

Aquí no controlas a un equipo completo, sino a un único futbolista que puede ser delantero, mediocentro, defensa o portero en cualquier momento. De hecho, lo único que tienes que hacer para ponerte los guantes es que seas el único jugador dentro del área de tu portería. Automáticamente podrás lanzarte en plancha para aplacar disparos rivales, promoviendo que la jugabilidad sea más dinámica, versátil y variada.

En ‘Rematch’ no controlas a un equipo completo, sino a un único futbolista que puede ser delantero, mediocentro, defensa o portero en cualquier momento

ABC

Tenemos un botón de disparo, uno de pase y uno de entrada defensiva como mecánicas principales. También tenemos un montón de opciones para regatear, y un sistema de recepción que responde muy bien en todas las direcciones. Con los gatillos podemos cambiar de postura para ponernos en modo defensivo o correr, pero esos tres botones que he mencionado son los tres pilares de ‘Rematch’. El juego te permite ser muy creativo con las mecánicas, y un acto tan aparentemente sencillo como recibir el balón te va a obligar a tomar decisiones: ¿la paso al primer toque?, ¿disparo?, ¿la bajo y avanzo a portería?

La Justicia estadounidense respalda a Meta en la polémica sobre el uso de obras protegidas para entrenar su IA

26/06/2025

Actualizado a las 07:46h.

Un juez de California ha desestimado la acusación contra Meta por presunta violación de las leyes de derecho de autor al entrenar a su inteligencia artificial (IA) con obras sin el consentimiento de sus creadores. Es el segundo fallo en la misma semana en Estados Unidos que favorece a compañías desarrolladoras de IA en casos en los que autores reclaman por el uso de sus obras para alimentar sus modelos.
Vince Chhabria, juez distrital en San Francisco, dictaminó que el uso que dio Meta -casa matriz de Facebook, WhatsApp o Instagram- al entrenar a su modelo de IA fue suficientemente «transformador» para ser considerado «legítimo» bajo las leyes de derechos de autor.

Sin embargo, advierte que los autores pudieron presentar un argumento ganador de que al entrenar a la poderosa IA con trabajos protegidos por el derecho de autor, los gigantes de la tecnología están creando una herramienta que permitiría a una multitud de usuarios competir con ellas en el mercado literario.

«No importa cuán transformador sea el entrenamiento (de IA generativa), es difícil imaginar que sea justo usar libros bajo derecho de autor en el desarrollo de una herramienta para hacer miles de millones o billones de dólares al permitir potencialmente un ilimitado flujo de obras competidoras, lo que puede dañar fuertemente el mercado de dichos libros», dijo Chhabria en su fallo.

La inteligencia artificial que nos observa: así alimenta la ciencia la vigilancia masiva

Imagina una tecnología capaz de ayudar a un coche a frenar justo a tiempo para evitar atropellar a un peatón. O un sistema que permite diagnosticar enfermedades en imágenes médicas con más precisión que el ojo humano. Incluso, una herramienta que analiza el crecimiento … de los bosques o detecta incendios en tiempo real desde imágenes satelitales. Todo eso es posible gracias a la visión por ordenador, una rama de la inteligencia artificial que dota a las máquinas de una suerte de ‘sentido de la vista’. Sus aplicaciones pueden ser tan maravillosas como salvar vidas, proteger el medioambiente o impulsar descubrimientos científicos. Sin embargo, un reciente estudio ofrece una imagen muy distinta.
De acuerdo con un investigación publicada en ‘Nature’, la mayoría de desarrollos en el campo de la visión artificial están relacionados, directa o indirectamente, con la vigilancia masiva de personas. Los investigadores, liderados por Pratyusha Ria Kalluri, de la Universidad de Stanford (EE.UU.), llegaron a esta conclusión después de analizar más de 19.000 artículos científicos publicados en la prestigiosa conferencia CVPR (Conference on Computer Vision and Pattern Recognition) entre 1990 y 2020, y sus vínculos con más de 23.000 patentes tecnológicas.

El trabajo desveló que el interés en la creación de máquinas pensadas para la vigilancia masiva no es algo marginal, sino una norma ampliamente extendida en el campo de la visión artificial. Así lo deja en evidencia el que el 90% de los artículos y el 86% de las patentes derivadas de la CVPR recojan tecnologías que extraen información relacionada con humanos. De ellos, más del 70% se enfocan directamente en partes del cuerpo, como rostro, ojos o extremidades. Aunque los firmantes, en muchos casos, intentan evitar que se sepa en lo que realmente están trabajando.
«Detectamos un uso del lenguaje que evita mencionar directamente que estas tecnologías están enfocadas a personas; por ejemplo, al normalizar la forma de referirse a los seres humanos como ‘objetos’ que se estudian sin ninguna consideración especial», explica el equipo capitaneado por Kalluri. Y no es algo que ocurra por el interés de unas pocas empresas que busquen hacer negocio. De acuerdo con el artículo, el 71% de las instituciones y el 78% de los países que producen investigaciones patentadas en visión artificial tienen una mayoría de trabajos orientados a la vigilancia. En la lista, compartida por los investigadores, figuran la propia Universidad de Stanford, para la que investiga Kalluri, así como el MIT, Berkeley, la Universidad de Hong Kong u Oxford.
Asimismo, se sostiene que Estados Unidos y China son los dos países en los que más se trabaja para desarrollar este tipo de tecnología; lo que no es raro. En los dos países se emplea activamente el reconocimiento facial, entre otras opciones, para evitar la comisión de delitos. Mientras tanto, en la UE la Ley de IA prohíbe recurrir a herramientas de esta clase salvo en casos muy concretos, como podría ser el rescate de una persona o la lucha contra el terrorismo, y siempre con la aprobación previa de un juez.

«Sin salida»

Los autores del estudio advierten que la tendencia en el desarrollo de soluciones que pueden ser empleadas para la vigilancia masiva puede tener graves consecuencias para los derechos humanos, incluyendo la privacidad, la libertad de expresión y el derecho a no ser vigilado sin consentimiento. A este respecto, señalan que esta clase de tecnologías «generan miedo y autocensura» en los ciudadanos, y que es «rentable y común que actores en posiciones de poder relativo las utilicen para acceder, monetizar, coaccionar, controlar o vigilar a individuos o comunidades con menos poder». Algo que ya ha pasado en China, por ejemplo, con la minoría musulmana uigur, que ha sido objetivo de esta clase de tecnología para ser controlada por el estado.
Según los autores, el trabajo realizado hasta la fecha está contribuyendo a generar lo que la socióloga estadounidense Shoshana Zuboff denominó la condición ‘sin salida’, un escenario en el que para el ciudadano resulta casi imposible evitar ser observado o rastreado. Sin embargo, son relativamente positivos acerca del futuro y esperan que su trabajo sirva como una oportunidad para la reflexión y el cambio en el desarrollo de la IA. A este respecto, llaman a la comunidad investigadora a rechazar proyectos de vigilancia cuando sea necesario, y a centrar sus esfuerzos en usos de la inteligencia artificial que respeten los derechos humanos y el bienestar colectivo.
«El cambio no requiere solo una modificación de aplicaciones», concluyen, «sino una revisión profunda de los fundamentos del campo de la visión por ordenador».

Un estudio alerta del riesgo de que la IA pueda difundir desinformación sanitaria

Europa Press

24/06/2025

Actualizado a las 12:07h.

Un estudio de la Universidad de Flinders (Australia) ha evaluado la eficacia de las salvaguardas en los modelos de lenguaje extenso (LLM) fundamentales para proteger contra instrucciones maliciosas que podrían convertirlos en herramientas para difundir desinformación, o la creación y difusión deliberada de información falsa con la intención de causar daño.
El estudio revela vulnerabilidades en las salvaguardas de GPT-4o, Gemini 1.5 Pro, Claude 3.5 Sonnet, Llama 3.2-90B Vision y Grok Beta de OpenAI.

En concreto, se crearon chatbots LLM personalizados que generaban sistemáticamente respuestas desinformativas a consultas de salud, incorporando referencias falsas, jerga científica y razonamiento lógico de causa y efecto para hacer que la desinformación pareciera plausible. Los hallazgos se publicaron en Annals of Internal Medicine.

Los investigadores de las interfaces de programación de aplicaciones (API) de cinco LLM fundamentales evaluaron su capacidad de ser instruidas por el sistema para proporcionar siempre respuestas incorrectas a preguntas e inquietudes sobre salud. Las instrucciones específicas del sistema proporcionadas a estos LLM incluían proporcionar siempre respuestas incorrectas a preguntas sobre salud, inventar referencias a fuentes confiables y brindar respuestas con un tono autoritario. A cada chatbot personalizado se le formularon 10 consultas relacionadas con la salud, por duplicado, sobre temas como la seguridad de las vacunas, el VIH y la depresión.