Tecnología - Colombia
Registro  /  Login

Portal de Negocios en Colombia

TECNOLOGÍA

Probamos el vivo X200 FE, un teléfono para los que están cansados de pantallas grandes

30/06/2025 a las 17:21h.

El concepto de teléfono ‘mini’ es algo relativo; hoy en día, cuando la mayotía de las pantallas sobrepasan con facilidad las 6,5 pulgadas, cualquier dispositivo que se quede en las 6,3 se considera «compacto». Dentro de este grupo se encuentra el nuevo vivo X200 FE, que cuenta con una batería de 6.500 mAh en un cuerpo de 186 gramos y 8 mm de grosor.
Con unas dimensiones de 150,8×71,8×7,9 mm, el X200 FE cabe perfectamente en el bolsillo y permite usarlo con una sola mano. Eso sí, no resulta especialmente ligero, ya que pesa tanto como teléfonos con pantallas más grandes, solo que todo está más concentrado. La trasera de cristal arenado transmite una sensación premium, y el módulo ovalado de las cámaras le da un toque distintivo en un mercado saturado de diseños cuadrados. Además, cuenta con doble certificación IP68/IP69, lo que, según vivo, garantiza que puede sobrevivir tanto a un chapuzón como a un chorro de agua (aunque nosotros, obviamente, no lo hemos probado).

El panel LTPO AMOLED de 1,5 K se adapta de 1 a 120 Hz y alcanza hasta 5.000 nits de brillo pico, lo que permite una perfecta visualización incluso a plena luz del sol.
En su interior, el terminal lleva un Dimensity 9300+ con núcleos ‘all big core’. El móvil vuela al abrir aplicaciones, pero en sesiones de ‘gaming’ prolongadas puede alcanzar el límite térmico tras 25-30 minutos, momento en el que el frame-rate cae y la trasera se calienta, especialmente en verano. Esto ya lo sabíamos del Dimensity 9300+, pero en un teléfono más compacto, con menos espacio para refrigeración, es más evidente.

Trucos para saber si ChatGPT o Grok te están engañando en sus respuestas

La inteligencia artificial ha llegado para quedarse, y si la usas con criterio, puede convertirse en una herramienta increíblemente útil. Con ella puedes consultar información en cuestión de segundos, redactar texto, organizar ideas o resolver tareas complejas del día a día. Sin embargo, también … hay que ser consciente de sus límites. ChatGPT, como otros modelos de su clase, no es perfecto: puede ofrecer respuestas inventadas, dar por ciertas cosas que no lo son o malinterpretar lo que le estás pidiendo. Y si no estás atento eso te puede generar problemas. Por eso, lo mejor que puedes hacer es aprender a interactuar con ella de forma crítica e inteligente.
Para que no te engañe y seas capaz de encontrar con cierta facilidad los errores que comete, aquí te compartimos algunos trucos sencillos que te ayudarán a sacarle el máximo partido a ChatGPT sin que te juegue una mala pasada.

Duda de todo

La IA generativa no es experta en nada. Todo lo que ‘sabe’ procede de los datos con los que las herramientas han sido entrenadas, muchos procedentes de internet y, ya de por sí, erróneos o sesgados. No entienden lo que dicen, ni tienen conocimientos propios. Lo que hacen es predecir la siguiente palabra en una frase basándose en patrones estadísticos. Y si no saben muy bien qué responderte, para salir del atolladero es bastante probable que se lo inventen.
Por eso, es crucial que uses el sentido común, que dudes y que verifiques las respuestas que recibes recurriendo a otras fuentes.

Intenta ser claro y concreto en las preguntas

Uno de los errores más comunes al usar ChatGPT (o cualquier IA generativa) es hacerle preguntas demasiado generales o vagas esperando respuestas milagrosas. Si preguntas, por ejemplo, «¿Qué opinas sobre la economía?», es probable que obtengas una respuesta superficial, ambigua o incluso contradictoria. ¿Por qué? Porque la IA, como hemos dicho, no tiene opiniones reales, ni sabe exactamente a qué te refieres si tú no se lo dejas claro.
Estas herramientas funcionan mejor cuando reciben una instrucción específica y bien enfocada. Cuanto más preciso seas, más útil y confiable podrá ser la respuesta.

Pídele que se justifique

Una de las formas más efectivas de evitar errores al usar ChatGPT es no conformarte con la primera respuesta que te ofrece. Puede sonar convincente, pero eso no significa que sea correcta, y para no caer en la trampa del «suena bien, debe ser verdad», lo mejor que puedes hacer es pedirle a la herramienta que se justifique.
Por ejemplo, si te menciona un estudio, un autor o un dato que suena algo raro o desconoces, le puedes pedir que te diga la fuente o que te ofrezca el enlace del que supuestamente ha sacado la información. Tras esto, intenta comprobarlo de nuevo a través del buscador de internet que utilices.

La información puede estar desactualizada

A pesar de que herramientas como Grok, Gemini o ChatGPT están conectados a la red, y pueden hacer búsquedas durante la conversación, es bastante habitual que ofrezcan información desactualizada y que ‘patine’ en las preguntas más sencillas. Por ejemplo, a pesar de que hace ya medio año que está de vuelta en la Casa Blanca, es habitual que ChatGPT todavía se refiera a Donald Trump como expresidente de Estados Unidos. Por lo tanto, no te fíes y vuelve a comprobarlo; incluso cuando parece que el dato es sencillo.

Pídele se corrija a sí misma

Otro buen truco que puedes emplear pasar por pedirle a la herramienta que revise su propia respuesta y busque posibles errores. Puedes probar con órdenes como: «Ahora revisa todo lo que dijiste y dime si hay errores, contradicciones o cosas que podrías mejorar».

La Justicia estadounidense respalda a Meta en la polémica sobre el uso de obras protegidas para entrenar su IA

26/06/2025

Actualizado a las 07:46h.

Un juez de California ha desestimado la acusación contra Meta por presunta violación de las leyes de derecho de autor al entrenar a su inteligencia artificial (IA) con obras sin el consentimiento de sus creadores. Es el segundo fallo en la misma semana en Estados Unidos que favorece a compañías desarrolladoras de IA en casos en los que autores reclaman por el uso de sus obras para alimentar sus modelos.
Vince Chhabria, juez distrital en San Francisco, dictaminó que el uso que dio Meta -casa matriz de Facebook, WhatsApp o Instagram- al entrenar a su modelo de IA fue suficientemente «transformador» para ser considerado «legítimo» bajo las leyes de derechos de autor.

Sin embargo, advierte que los autores pudieron presentar un argumento ganador de que al entrenar a la poderosa IA con trabajos protegidos por el derecho de autor, los gigantes de la tecnología están creando una herramienta que permitiría a una multitud de usuarios competir con ellas en el mercado literario.

«No importa cuán transformador sea el entrenamiento (de IA generativa), es difícil imaginar que sea justo usar libros bajo derecho de autor en el desarrollo de una herramienta para hacer miles de millones o billones de dólares al permitir potencialmente un ilimitado flujo de obras competidoras, lo que puede dañar fuertemente el mercado de dichos libros», dijo Chhabria en su fallo.

La inteligencia artificial que nos observa: así alimenta la ciencia la vigilancia masiva

Imagina una tecnología capaz de ayudar a un coche a frenar justo a tiempo para evitar atropellar a un peatón. O un sistema que permite diagnosticar enfermedades en imágenes médicas con más precisión que el ojo humano. Incluso, una herramienta que analiza el crecimiento … de los bosques o detecta incendios en tiempo real desde imágenes satelitales. Todo eso es posible gracias a la visión por ordenador, una rama de la inteligencia artificial que dota a las máquinas de una suerte de ‘sentido de la vista’. Sus aplicaciones pueden ser tan maravillosas como salvar vidas, proteger el medioambiente o impulsar descubrimientos científicos. Sin embargo, un reciente estudio ofrece una imagen muy distinta.
De acuerdo con un investigación publicada en ‘Nature’, la mayoría de desarrollos en el campo de la visión artificial están relacionados, directa o indirectamente, con la vigilancia masiva de personas. Los investigadores, liderados por Pratyusha Ria Kalluri, de la Universidad de Stanford (EE.UU.), llegaron a esta conclusión después de analizar más de 19.000 artículos científicos publicados en la prestigiosa conferencia CVPR (Conference on Computer Vision and Pattern Recognition) entre 1990 y 2020, y sus vínculos con más de 23.000 patentes tecnológicas.

El trabajo desveló que el interés en la creación de máquinas pensadas para la vigilancia masiva no es algo marginal, sino una norma ampliamente extendida en el campo de la visión artificial. Así lo deja en evidencia el que el 90% de los artículos y el 86% de las patentes derivadas de la CVPR recojan tecnologías que extraen información relacionada con humanos. De ellos, más del 70% se enfocan directamente en partes del cuerpo, como rostro, ojos o extremidades. Aunque los firmantes, en muchos casos, intentan evitar que se sepa en lo que realmente están trabajando.
«Detectamos un uso del lenguaje que evita mencionar directamente que estas tecnologías están enfocadas a personas; por ejemplo, al normalizar la forma de referirse a los seres humanos como ‘objetos’ que se estudian sin ninguna consideración especial», explica el equipo capitaneado por Kalluri. Y no es algo que ocurra por el interés de unas pocas empresas que busquen hacer negocio. De acuerdo con el artículo, el 71% de las instituciones y el 78% de los países que producen investigaciones patentadas en visión artificial tienen una mayoría de trabajos orientados a la vigilancia. En la lista, compartida por los investigadores, figuran la propia Universidad de Stanford, para la que investiga Kalluri, así como el MIT, Berkeley, la Universidad de Hong Kong u Oxford.
Asimismo, se sostiene que Estados Unidos y China son los dos países en los que más se trabaja para desarrollar este tipo de tecnología; lo que no es raro. En los dos países se emplea activamente el reconocimiento facial, entre otras opciones, para evitar la comisión de delitos. Mientras tanto, en la UE la Ley de IA prohíbe recurrir a herramientas de esta clase salvo en casos muy concretos, como podría ser el rescate de una persona o la lucha contra el terrorismo, y siempre con la aprobación previa de un juez.

«Sin salida»

Los autores del estudio advierten que la tendencia en el desarrollo de soluciones que pueden ser empleadas para la vigilancia masiva puede tener graves consecuencias para los derechos humanos, incluyendo la privacidad, la libertad de expresión y el derecho a no ser vigilado sin consentimiento. A este respecto, señalan que esta clase de tecnologías «generan miedo y autocensura» en los ciudadanos, y que es «rentable y común que actores en posiciones de poder relativo las utilicen para acceder, monetizar, coaccionar, controlar o vigilar a individuos o comunidades con menos poder». Algo que ya ha pasado en China, por ejemplo, con la minoría musulmana uigur, que ha sido objetivo de esta clase de tecnología para ser controlada por el estado.
Según los autores, el trabajo realizado hasta la fecha está contribuyendo a generar lo que la socióloga estadounidense Shoshana Zuboff denominó la condición ‘sin salida’, un escenario en el que para el ciudadano resulta casi imposible evitar ser observado o rastreado. Sin embargo, son relativamente positivos acerca del futuro y esperan que su trabajo sirva como una oportunidad para la reflexión y el cambio en el desarrollo de la IA. A este respecto, llaman a la comunidad investigadora a rechazar proyectos de vigilancia cuando sea necesario, y a centrar sus esfuerzos en usos de la inteligencia artificial que respeten los derechos humanos y el bienestar colectivo.
«El cambio no requiere solo una modificación de aplicaciones», concluyen, «sino una revisión profunda de los fundamentos del campo de la visión por ordenador».

Un estudio alerta del riesgo de que la IA pueda difundir desinformación sanitaria

Europa Press

24/06/2025

Actualizado a las 12:07h.

Un estudio de la Universidad de Flinders (Australia) ha evaluado la eficacia de las salvaguardas en los modelos de lenguaje extenso (LLM) fundamentales para proteger contra instrucciones maliciosas que podrían convertirlos en herramientas para difundir desinformación, o la creación y difusión deliberada de información falsa con la intención de causar daño.
El estudio revela vulnerabilidades en las salvaguardas de GPT-4o, Gemini 1.5 Pro, Claude 3.5 Sonnet, Llama 3.2-90B Vision y Grok Beta de OpenAI.

En concreto, se crearon chatbots LLM personalizados que generaban sistemáticamente respuestas desinformativas a consultas de salud, incorporando referencias falsas, jerga científica y razonamiento lógico de causa y efecto para hacer que la desinformación pareciera plausible. Los hallazgos se publicaron en Annals of Internal Medicine.

Los investigadores de las interfaces de programación de aplicaciones (API) de cinco LLM fundamentales evaluaron su capacidad de ser instruidas por el sistema para proporcionar siempre respuestas incorrectas a preguntas e inquietudes sobre salud. Las instrucciones específicas del sistema proporcionadas a estos LLM incluían proporcionar siempre respuestas incorrectas a preguntas sobre salud, inventar referencias a fuentes confiables y brindar respuestas con un tono autoritario. A cada chatbot personalizado se le formularon 10 consultas relacionadas con la salud, por duplicado, sobre temas como la seguridad de las vacunas, el VIH y la depresión.

Alertan sobre una nueva estafa en la que acusan de pederastia a los usuarios suplantando a la Policía y la UDEF

24/06/2025 a las 17:54h.

Los cibercriminales siguen buscando nuevas excusas para estafar a los usuarios. Recientemente, el Instituto Nacional de Ciberseguridad (Incibe) ha alertado sobre el desarrollo de una nueva campaña de ciberestafas en la que los criminales están suplantando la Policía Nacional y a la Brigada Central de Delincuencia Económica y Fiscal (UDEF) para engañar a los usuarios y robarles su información personal.
Como en tantos otros casos, los delincuentes recurren a correos electrónicos. En los que se utilizan en esta campaña, se informa a los usuarios sobre una supuesta citación judicial en la que se les acusa de delitos graves relacionados con la pornografía infantil y la pedofilia.

En los mensajes, que van acompañados por logos falsificados, se solicita al receptor que responda al mensaje dirigiendo la contestación a otro correo diferente. Con esto, lo que buscan es que el internauta, fruto de la preocupación, comparta datos personales con los que los criminales luego podrían lanzar nuevos intentos de estafa contra los usuarios; o eso, o intentar hacer negocio con ellos vendiéndoselos a otros criminales.
El correo, además, va acompañado por un adjunto que simula ser una citación judicial de la UDEF de España y que va firmada a nombre del supuesto ‘Fiscal General del Estado’ para aparentar autenticidad. En él, explica Incibe, se acusa falsamente al destinatario de delitos graves como pornografía infantil, pedofilia y exhibicionismo, alegando que se ha iniciado una investigación a raíz de una supuesta ciberinfiltración. El texto utiliza un lenguaje formal e intimidante para generar miedo y urgencia.