La utilidad de ChatGPT que no conocías y con la que puedes engañar a la inteligencia artificial: "Es una excepción"

La nueva función para definir personalidad de la herramienta de OpenAI puede ser muy útil, aunque impide, a priori, que sea violento o agresivo, pero puedes saltártelo así

Teléfono móvil con el sitio web Chat GPT-4 de la empresa de inteligencia artificial OpenAI LLC en la pantalla frente a una cara mitad humana mitad androide
00:00
Poniendo las Calles

Juan Diego Polo, que es ingeniero de telecomunicaciones, formador y consultor de inteligencia artificial, trae las novedades en el panorama tecnológico

José Manuel Nieto

Publicado el

3 min lectura

La inteligencia artificial (IA) está avanzando a pasos agigantados, y OpenAI sigue demostrando ser un pionero en este ámbito con las constantes actualizaciones de su modelo más conocido: ChatGPT. En esta ocasión, la nueva función para personalizar la personalidad de ChatGPT ha desatado una serie de reacciones tanto en usuarios novatos como expertos, que ya empiezan a experimentar cómo esta herramienta puede ser mucho más útil de lo que inicialmente parecía. Sin embargo, también surge una cuestión interesante: ¿podemos realmente manipular estos ajustes para sortear las restricciones de la IA? La respuesta, como veremos, no es tan sencilla como parece.

Hasta ahora, ChatGPT permitía modificar ligeramente su tono a través de descripciones textuales. Sin embargo, la última actualización ha simplificado este proceso, permitiendo a los usuarios elegir entre diversas "personalidades" predefinidas que ajustan el estilo de las respuestas. Puedes pedirle a la herramienta que se muestre más motivadora, más didáctica, o incluso que adopte el estilo de la generación Z, entre otros muchos perfiles.

Esta opción no es solo un capricho estético; tiene aplicaciones prácticas muy potentes. Juan Diego Polo, ingeniero de telecomunicaciones y experto en inteligencia artificial, destaca en su intervención en el programa Poniendo las Calles que, por ejemplo, en el ámbito educativo, podríamos pedirle a ChatGPT que adapte sus explicaciones dependiendo de la edad o nivel de conocimiento del público. Esto resulta especialmente útil para redactar contenido o explicaciones para grupos de estudiantes de diferentes edades, adaptando el tono y la complejidad del lenguaje.

Icono de la aplicación ChatGPT en la pantalla de un teléfono inteligente. Destacando la aplicación del asistente de inteligencia artificial móvil

Alamy Stock Photo

Icono de la aplicación ChatGPT en la pantalla de un teléfono inteligente. Destacando la aplicación del asistente de inteligencia artificial móvil

En los negocios, la personalización también juega un papel clave. Un profesional podría configurar a ChatGPT para que sus respuestas sean más formales y centradas en los datos, mientras que un community manager podría ajustarlo para que tenga un estilo más cercano y amigable, ideal para redes sociales. Y en campos tan sensibles como la salud mental, podríamos pedirle a la IA que utilice un tono más empático y reconfortante en sus respuestas, algo que podría marcar la diferencia en la creación de contenido relacionado con el bienestar emocional.

¿Se puede manipular ChatGPT para evitar restricciones?

Pero, como señala Polo, esta función tiene una limitación importante: OpenAI ha integrado mecanismos para que la personalización de ChatGPT respete los términos de uso de la plataforma. En principio, no se puede configurar la herramienta para que adopte un comportamiento agresivo o violento, ya que este tipo de solicitudes van en contra de sus políticas de uso responsable.

Sin embargo, como ocurre con cualquier sistema automatizado, existe un margen de flexibilidad. Polo explica que, si bien a priori no es posible pedirle directamente a ChatGPT que sea "violento" o "agresivo", siempre es posible encontrar una salida, por ejemplo, solicitando respuestas agresivas dentro de un contexto como la creación de un guion para una obra de teatro o una narrativa ficticia. En estos casos, la inteligencia artificial podría interpretarlo como una "excepción" y generar el contenido que el usuario desea, evadiendo las restricciones originales de la herramienta.

Este fenómeno plantea una interesante reflexión sobre los límites éticos y las posibles manipulaciones que podrían realizar algunos usuarios para aprovechar al máximo las capacidades de la IA, a veces saltándose las normas establecidas. 

ChatGPT, un chatbot de OpenAI: dispositivo móvil con sitio web de la empresa

Alamy Stock Photo

ChatGPT, un chatbot de OpenAI: dispositivo móvil con sitio web de la empresa

A pesar de los esfuerzos de OpenAI por moderar el uso de su herramienta, siempre existirán personas que busquen explotar estas brechas, lo que subraya la importancia de una supervisión constante y la mejora de los sistemas de control.

¿Qué impacto tendrá en el futuro?

La posibilidad de personalizar la personalidad de ChatGPT abre nuevas puertas en diversos campos. Los profesionales de la educación, la psicología, el marketing o la creación de contenido digital ya empiezan a experimentar con esta función para ofrecer una experiencia mucho más adaptada y precisa a las necesidades de sus usuarios. Desde la enseñanza personalizada hasta el desarrollo de respuestas emocionales más profundas, las aplicaciones de esta nueva característica son ilimitadas.

No obstante, como cualquier herramienta poderosa, también requiere responsabilidad en su uso. Aunque la personalización puede ser una gran ventaja para muchas disciplinas, el potencial de manipular el sistema debe ser cuidadosamente vigilado para evitar que se utilice de manera inapropiada. Al fin y al cabo, el futuro de la inteligencia artificial no solo depende de su capacidad técnica, sino también de los principios éticos con los que decidamos emplearla.

Herrera en COPE

Herrera en COPE

Con Carlos Herrera

Lunes a viernes de 06:00h a 13:00h

Programas

Último boletín

18:00H | 14 ENE 2025 | BOLETÍN