Tecnología - Colombia
Registro  /  Login

Portal de Negocios en Colombia

TECNOLOGÍA

Trucos para saber si ChatGPT o Grok te están engañando en sus respuestas

La inteligencia artificial ha llegado para quedarse, y si la usas con criterio, puede convertirse en una herramienta increíblemente útil. Con ella puedes consultar información en cuestión de segundos, redactar texto, organizar ideas o resolver tareas complejas del día a día. Sin embargo, también … hay que ser consciente de sus límites. ChatGPT, como otros modelos de su clase, no es perfecto: puede ofrecer respuestas inventadas, dar por ciertas cosas que no lo son o malinterpretar lo que le estás pidiendo. Y si no estás atento eso te puede generar problemas. Por eso, lo mejor que puedes hacer es aprender a interactuar con ella de forma crítica e inteligente.
Para que no te engañe y seas capaz de encontrar con cierta facilidad los errores que comete, aquí te compartimos algunos trucos sencillos que te ayudarán a sacarle el máximo partido a ChatGPT sin que te juegue una mala pasada.

Duda de todo

La IA generativa no es experta en nada. Todo lo que ‘sabe’ procede de los datos con los que las herramientas han sido entrenadas, muchos procedentes de internet y, ya de por sí, erróneos o sesgados. No entienden lo que dicen, ni tienen conocimientos propios. Lo que hacen es predecir la siguiente palabra en una frase basándose en patrones estadísticos. Y si no saben muy bien qué responderte, para salir del atolladero es bastante probable que se lo inventen.
Por eso, es crucial que uses el sentido común, que dudes y que verifiques las respuestas que recibes recurriendo a otras fuentes.

Intenta ser claro y concreto en las preguntas

Uno de los errores más comunes al usar ChatGPT (o cualquier IA generativa) es hacerle preguntas demasiado generales o vagas esperando respuestas milagrosas. Si preguntas, por ejemplo, «¿Qué opinas sobre la economía?», es probable que obtengas una respuesta superficial, ambigua o incluso contradictoria. ¿Por qué? Porque la IA, como hemos dicho, no tiene opiniones reales, ni sabe exactamente a qué te refieres si tú no se lo dejas claro.
Estas herramientas funcionan mejor cuando reciben una instrucción específica y bien enfocada. Cuanto más preciso seas, más útil y confiable podrá ser la respuesta.

Pídele que se justifique

Una de las formas más efectivas de evitar errores al usar ChatGPT es no conformarte con la primera respuesta que te ofrece. Puede sonar convincente, pero eso no significa que sea correcta, y para no caer en la trampa del «suena bien, debe ser verdad», lo mejor que puedes hacer es pedirle a la herramienta que se justifique.
Por ejemplo, si te menciona un estudio, un autor o un dato que suena algo raro o desconoces, le puedes pedir que te diga la fuente o que te ofrezca el enlace del que supuestamente ha sacado la información. Tras esto, intenta comprobarlo de nuevo a través del buscador de internet que utilices.

La información puede estar desactualizada

A pesar de que herramientas como Grok, Gemini o ChatGPT están conectados a la red, y pueden hacer búsquedas durante la conversación, es bastante habitual que ofrezcan información desactualizada y que ‘patine’ en las preguntas más sencillas. Por ejemplo, a pesar de que hace ya medio año que está de vuelta en la Casa Blanca, es habitual que ChatGPT todavía se refiera a Donald Trump como expresidente de Estados Unidos. Por lo tanto, no te fíes y vuelve a comprobarlo; incluso cuando parece que el dato es sencillo.

Pídele se corrija a sí misma

Otro buen truco que puedes emplear pasar por pedirle a la herramienta que revise su propia respuesta y busque posibles errores. Puedes probar con órdenes como: «Ahora revisa todo lo que dijiste y dime si hay errores, contradicciones o cosas que podrías mejorar».

Reggie Townsend, exasesor de IA de la Casa Blanca: «Biden y Trump piensan igual sobre inteligencia artificial»

Llevamos dos años y medio viviendo lo que muchos consideran la mayor revolución tecnológica desde la llegada de internet. Desde que ChatGPT irrumpió en nuestras vidas en noviembre de 2022, la inteligencia artificial (IA) ha pasado de ser una tecnología de nicho, a convertirse … en el centro de prácticamente todas las conversaciones sobre el futuro del trabajo, la economía y la sociedad.
Pero, ¿estamos realmente preparados para lo que viene? Es lo que planteamos desde ABC a Reggie Townsend, vicepresidente de SAS y una de las voces más destacadas en el debate sobre IA ética y responsable, que además, formó parte del comité asesor de inteligencia artificial de la Casa Blanca, y contribuyó a redactar la orden ejecutiva sobre IA de la administración Biden.
«Lo que conmocionó al mundo no fue la IA en sí», explica Townsend. «Lo que nos sorprendió fue nuestra capacidad para interactuar con modelos de lenguaje grandes usando lenguaje natural». Las tecnologías como la visión computacional o el análisis predictivo llevan décadas funcionando entre nosotros, pero lo que cambió fue que todo el mundo pudo usar una interfaz neuronal entrenada con miles de millones de datos simplemente escribiendo en su idioma. Este nivel de democratización permitió, por primera vez, a usuarios sin conocimientos técnicos, aprovechar capacidades de la inteligencia artificial. Pero que al mismo tiempo genera nuevos riesgos, y plantea preguntas sobre cómo debería regularse y gestionarse.

Townsend nos cuenta su experiencia en SAS: «Llevamos muchos años usando tecnologías como Llama de Meta en procesamiento de lenguaje natural», cuenta. «Eso nos permitió entender este momento como lo que realmente es, una oportunidad para llegar a más gente, pero también para separar lo que puede ser la moda de la IA, a la aplicación real».

La sostenibilidad como ventaja competitiva europea

Una de las críticas más frecuentes al enfoque europeo sobre IA es que la excesiva regulación está frenando la innovación. Mientras que en Estados Unidos y China se lanzan nuevos modelos y aplicaciones a ritmo vertiginoso, en Europa muchos productos en torno a la inteligencia artificial tardan meses en llegar, o directamente no están disponibles.
¿Pero es esto realmente una desventaja para Europa no estar al frente de esta carrera? El ejecutivo plantea una pregunta de fondo: «¿Una carrera hacia dónde?». Su argumento es que la prisa por ser el primero a menudo genera «errores públicos y desastres de relaciones públicas», por lo que a veces, es mejor ser precavido usando la última tecnología.
Aquí es donde Townsend ve una oportunidad clara para Europa. «Ahora mismo, todo el mundo en Estados Unidos está buscando cómo generar más energía, por ejemplo, Microsoft acaba de cerrar un acuerdo hace dos días con Constellation para obtenerla de reactores nucleares«. En contraste, Europa tiene »una pasión por la sostenibilidad y el medio ambiente, con criterios ESG reales«. »Tal vez podáis entrar en la carrera mostrando cómo ser más sostenibles«, sugiere. Una propuesta intrigante, en lugar de competir en la carrera de más potencia computacional, Europa podría liderar en eficiencia energética y sostenibilidad de los sistemas de IA.
Uno de los grandes problemas de la IA gira en torno a los sesgos algorítmicos. Townsend es directo al respecto: «Los sesgos existen en la inteligencia artificial porque los seres humanos tienen sesgos, y los datos que usa la IA provienen de seres humanos».
La solución no está en eliminar los sesgos, algo imposible mientras los humanos sigamos siendo humanos, sino en detectarlos y mitigarlos. «Tenemos algoritmos de detección de sesgos integrados en SAS, que alertan al usuario cuando la distribución de datos muestra poca representación de mujeres, inmigrantes o personas de otras etnias», explica, «y presionando un botón se pueden generar datos sintéticos para equilibrar la representación estadística».

La política de la IA: continuidad por encima del partidismo

Cuando preguntamos a Townsend, que participó personalmente en la elaboración de la orden ejecutiva sobre IA de Biden, sobre el gobierno de Trump, reconoce que personalmente no le gustó cuando Trump derogó la ley, porque estuvo en la Casa Blanca cuando se firmó y contribuyó a que se creara.
Sin embargo, su análisis es pragmático: «No creo que haya tanta diferencia en sustancia entre lo que las dos administraciones intentaban hacer. Creo que ciertamente hay diferencia en la retórica, pero no en el fondo». De hecho, señala que fue la primera administración Trump la que creó los cimientos de la estrategia de IA nacional, y también estableció la oficina nacional de IA en la que el ejecutivo de Biden se basó.
La segunda orden ejecutiva de Trump sobre IA se creó sobre las ideas de alfabetización que el propio Townsend había ayudado a desarrollar. «Las ideas eran las mismas», explica, «centradas en cómo la IA puede usarse en contextos educativos, y cómo podemos empezar a enseñar a los estudiantes sobre el uso de esta tecnología».

El futuro del trabajo: agentes personales y nuevos modelos de empleo

Quizás la predicción más fascinante de Townsend se refiere al futuro del empleo. «¿Empezarán las empresas en el futuro a contratar gente no solo por lo que saben, sino por lo que pueden hacer y lo que han creado?», se pregunta. «¿Debería de contratar a alguien que haya sido capaz de crear una colección de agentes de los que podría aprovecharme como empresa?»
La pregunta siguiente es aún más compleja: «¿Significa eso que te estoy empleando a ti como persona y a tus agentes con los que formas un equipo? ¿Es esa propiedad intelectual tuya o se queda conmigo después de que te vayas?» Estas no son preguntas teóricas para el futuro lejano. «Todo esto se está volviendo realmente complicado muy, muy rápido. Y está ocurriendo ahora mismo. No estoy hablando de dentro de 20 años».
Townsend propone un modelo de responsabilidad compartida sobre la alfabetización: «Las empresas tenemos una responsabilidad. Los gobiernos tienen la responsabilidad de crear entornos donde podamos innovar con las restricciones apropiadas. La academia tiene la responsabilidad de educar estudiantes para el futuro y no para el pasado. Las organizaciones sociales tienen un papel para involucrar a las comunidades».
Por poner un ejemplo, como sociedad, Townsend opina que deberíamos tener el mismo nivel básico de conocimiento sobre la IA que tenemos sobre la electricidad. «Todos sabemos que si echas agua a un enchufe, probablemente va a haber un cortocircuito. No lo hacemos porque tenemos un nivel básico de conciencia sobre la electricidad, sin ser ingenieros o físicos nucleares. Necesitamos lo mismo para la inteligencia artificial».
Townsend aclara que cuando este nivel de alfabetización llegue, estaremos preparados como sociedad, para tener la conversación sobre qué papel juega la IA en ella, y qué queremos construir para el futuro.

Apostar por la IA responsable

¿Vale la pena apostar por la IA responsable? La respuesta de Townsend es un rotundo sí, pero con matices importantes. «Una de las grandes oportunidades que tenemos, es que, como la IA es una tecnología ubicua que afecta potencialmente a cada parte del negocio —marketing, finanzas, operaciones, recursos humanos—, está forzando a los líderes a repensar cómo está estructurada la organización».
Esta reestructuración no es solo tecnológica sino fundamental: «Nos está dando una oportunidad para reimaginar cómo nos organizamos como organizaciones y como sociedad». En definitiva, la IA responsable no es solo una cuestión ética o regulatoria, es, como demuestra la experiencia de SAS, una ventaja competitiva real para empresas que saben implementarla correctamente. Y en esa carrera, Europa no solo puede competir, puede liderar.

Aumentan las advertencias sobre los riesgos para la privacidad de las mujeres que usan aplicaciones de seguimiento menstrual

16/06/2025 a las 06:01h.

La popularidad de las aplicaciones móviles diseñadas para el seguimiento del ciclo menstrual, promovidas como herramientas de empoderamiento personal y autoconocimiento, ha suscitado en los últimos años preocupaciones cada vez más serias entre expertas en privacidad, defensoras de los derechos digitales y organizaciones feministas, en especial desde que en Estados Unidos se intensificó el debate sobre la criminalización del aborto y el papel que podrían desempeñar los datos personales en procedimientos judiciales.
Aunque inicialmente celebradas como avances tecnológicos que permiten a millones de mujeres gestionar con mayor precisión aspectos de su salud reproductiva, desde la predicción de la ovulación hasta el seguimiento de síntomas premenstruales o trastornos hormonales, estas aplicaciones han sido objeto de un escrutinio creciente tras revelaciones sobre prácticas de tratamiento de datos poco transparentes, así como sobre los posibles usos punitivos de la información que almacenan.

En esta línea, un nuevo informe elaborado por el Minderoo Centre for Technology and Democracy de la Universidad de Cambridge, que entre otras funciones investiga el impacto de la tecnología en la democracia, alerta de que las mujeres que utilizan este tipo de plataformas se enfrentan a «riesgos reales y alarmantes para su privacidad y su seguridad», derivados del modelo económico sobre el que se sostienen muchas de estas herramientas. El estudio subraya que la información personal introducida en estas aplicaciones, desde la duración del ciclo menstrual hasta datos sobre relaciones sexuales, consumo de medicamentos, uso de anticonceptivos, dieta, ejercicio o niveles hormonales, puede ser recopilada de forma sistemática y vendida a gran escala, a menudo sin un consentimiento claro y con escasa supervisión regulatoria.

«Los datos sobre quién está embarazada, o quién desea estarlo, se han convertido en algunos de los más codiciados dentro del ecosistema de la publicidad digital», señala el informe, que advierte de que este tipo de información se utiliza de forma rutinaria para elaborar perfiles de consumo extremadamente detallados.

Las aplicaciones crecientes de los 'necrobotics', convertir cadáveres de arañas muertas en robots biohíbridos

15/06/2025

Actualizado a las 05:32h.

En 2022, científicos de la Universidad Rice, en Estados Unidos, usaron el término ‘necrobot’ para referirse a la creación de robots biológicos a partir de cuerpos sin vida de animales. Un estudio publicado en ‘Advanced Science’ describía cómo la autora principal del trabajo Faye Yap y Daniel Preston de la Escuela de Ingeniería George R. Brown de Rice aprovecharon la particular fisiología de una araña lobo para utilizarlas como herramientas mecánicas de agarre. Consiguiendo que fueran capaces de asir objetos hasta un 130% más que su propio peso y pudieran realizar más de mil ciclos de agarre, conservando precisión y estabilidad en el proceso. «Resulta que la araña, después de morir, es la arquitectura perfecta para pinzas de pequeña escala derivadas de la naturaleza», dijo Preston en un comunicado.

Imagen del uso de los necrobots

investigación abierta

Este fue un primer paso hacia la automatización y hacia una nueva área de investigación que denominaron ‘necrobótica’. Desde entonces, se han ido estudiando sus aplicaciones, en especial, para realizar tareas pequeñas y precisas como la manipulación de componentes electrónicos como microchips. También se habla de su empleo en cirugías superficiales o cuando hay escasez de equipamiento médico y su camuflaje natural los hace ideales para tareas de recolección en la naturaleza. Al mismo tiempo hablamos de una robótica biodegradable y de bajo coste. 

«El aprovechamiento de propiedades y mecanismos similares a los generados por la naturaleza puede permitir sistemas de ingeniería con capacidades o ventajas completamente nuevas; este campo de investigación se conoce como diseño bioinspirado o biomimético», describen en el artículo.

«Al observar organismos que se han refinado a través de milenios de evolución, los científicos e ingenieros han desarrollado capacidades que van desde la modificación de la humectabilidad de la superficie basada en hojas de loto y escarabajos de Namibia hasta mecanismos de adhesión que emulan los dedos de los gecos», señala la investigación de la Universidad de Rice. Y añade que los investigadores también se han inspirado en la locomoción de animales terrestres y criaturas acuáticas para guiar el diseño de robots.

Salamanca Tech Summit: epicentro de tecnología e innovación

Reúne del 25 al 27 de junio a expertos en inteligencia artificial, animación, videojuegos, biotecnología, ciberseguridad, digitalización, economía del español o blockchain

El rector de la Universidad de Salamanca, Juan Manuel Corchado, y el alcalde de Salamanca, Carlos García Carbayo, durante la presentación de una nueva edición de Salamanca Tech Summit ABC