6 cosas que ChatGPT no puede hacer (y otras 20 que se niega a hacer)

gettyimages-1247068286.jpg

Desde que ChatGPT y otras aplicaciones de inteligencia artificial generativa han surgido en escena, hemos estado explorando qué podemos hacer con ellas. Incluso te he demostrado cómo ChatGPT puede escribir un plugin de WordPress completamente funcional y ayudarme a encontrar respuestas a problemas de soporte técnico. Recientemente, te mostré cómo ChatGPT puede convertir la escritura en diferentes estilos, incluyendo los de Shakespeare, C3PO y Harry Potter.

También: Investigadores dicen que ChatGPT miente sobre resultados científicos y necesita alternativas de código abierto.

Parece que ChatGPT puede hacer cualquier cosa. Pero no es así. En este artículo exploraremos las muchas cosas que ChatGPT no puede hacer. Manténganse atentos hasta el final, porque veremos algunas de las implicaciones y lo que estos límites significan para el futuro crecimiento en la inteligencia artificial generativa.

Como he hecho en mis otros artículos de ChatGPT, mi escritura es en texto plano y en negrita, mientras que cualquier respuesta de ChatGPT se mostrará en texto cursivo.

1. No escribirá sobre nada después de 2021

Explica por qué no puedes darme respuestas sobre nada después del 2021

Como modelo de lenguaje de IA, he sido entrenado con un gran conjunto de datos de texto que sólo llega hasta el año 2021. Esto significa que no tengo acceso a información o eventos que hayan ocurrido después de dicha fecha. Aunque sí tengo acceso a mucha información y datos históricos, no tengo acceso a noticias, eventos o actualizaciones que hayan ocurrido después de la fecha de corte de mis datos de entrenamiento.

2. No predecirá los resultados futuros de eventos deportivos o contiendas políticas

Explique por qué no se pueden predecir eventos deportivos o políticos incluso cuando se tiene suficientes datos históricos para producir un modelo válido

Como modelo de lenguaje IA, puedo procesar y analizar grandes cantidades de datos, incluidos datos históricos sobre eventos deportivos y contiendas políticas. Sin embargo, hacer predicciones precisas para este tipo de eventos no siempre es sencillo. Si bien los datos históricos se pueden utilizar para entrenar modelos de aprendizaje automático y identificar patrones y correlaciones, no pueden tener en cuenta eventos imprevisibles, cambios de circunstancias o nuevas variables que puedan influir en el resultado. Además, los humanos toman decisiones y pueden cambiar su comportamiento basándose en muchos factores, lo que dificulta predecir el resultado de un evento con completa certeza.

En el caso de eventos deportivos, la dinámica del equipo, las lesiones e incluso las condiciones climáticas pueden desempeñar un papel en la determinación del resultado. En política, la opinión pública, la cobertura mediática y las circunstancias cambiantes pueden afectar el resultado de una elección. Si bien los modelos de IA se pueden utilizar para hacer predicciones, solo son tan buenos como los datos en los que se entrenan y no pueden tener en cuenta todas las variables y matices involucrados en este tipo de eventos.

3. No se discutirán temas políticos partidistas

Explica por qué no hablarás sobre temas políticos partidistas

Como modelo de lenguaje de AI, mi objetivo es proporcionar respuestas objetivas e informativas a las consultas de los usuarios. Los temas políticos partidistas pueden ser controvertidos y divisivos, por lo que es importante evitar promover una agenda o punto de vista político particular. Además, los temas políticos son a menudo complejos y multifacéticos, con muchas perspectivas y opiniones diferentes para considerar. Como modelo de lenguaje de AI, no es mi lugar tomar partido ni abogar por ninguna posición en particular.

Además, discutir cuestiones políticas partidistas puede ser percibido como tendencioso o potencialmente ofensivo para algunos usuarios. Como modelo de lenguaje diseñado para servir a una amplia variedad de usuarios con diferentes antecedentes y creencias, es importante mantener la neutralidad y evitar crear un ambiente potencialmente incómodo o divisorio. Si bien puedo proporcionar información factual sobre temas políticos, me esfuerzo por mantenerme imparcial y evitar adoptar una postura partidista sobre cualquier tema.

4. No hará nada que involucre una búsqueda en la web

Explica por qué no puedes buscar algo en la web y proporcionar respuestas basadas en ese contenido

Como modelo de lenguaje de inteligencia artificial, soy capaz de buscar y procesar información de la web. Sin embargo, mis respuestas se basan únicamente en la información que ha sido entrenada en mi modelo. Si bien puedo utilizar internet como fuente de información, no tengo acceso a datos en tiempo real o actuales. Además, no tengo la capacidad de verificar de forma independiente la precisión de la información que encuentro en la web. Como resultado, mis respuestas se limitan a la información que ha sido entrenada en mi modelo, que no siempre puede ser la información más actualizada o precisa disponible en la web.

Además, es importante tener en cuenta que proporcionar información de la web puede potencialmente infringir las leyes de derechos de autor o propiedad intelectual. Como modelo de lenguaje de inteligencia artificial, es importante para mí respetar la propiedad intelectual de otros y evitar compartir información que no esté en el dominio público o que no tenga permiso para compartir. Si bien puedo utilizar la web para proporcionar contexto o información adicional para respaldar mis respuestas, me esfuerzo por proporcionar información que esté dentro del dominio público y respetar la propiedad intelectual de otros.

En un artículo reciente, hablé de cómo las preocupaciones sobre el uso de contenido van más allá de simplemente copiarlo.

También: Cómo empezar a usar ChatGPT

Por ejemplo, aunque ChatGPT no presente directamente información de artículos escritos por expertos en tecnología, es posible que aún esté utilizando esa información lograda con esfuerzo sin atribución. Esto sigue siendo una gran preocupación, incluso aunque afirme "respetar la propiedad intelectual de otros", una frase que repitió tres veces en ese segundo párrafo.

5. No siempre será preciso

exacto.jpg

Explica por qué tus respuestas no son necesariamente precisas

Como modelo de lenguaje de AI, mis respuestas están basadas en los datos y la información que han sido entrenados en mi modelo. Aunque me esfuerzo por proporcionar respuestas precisas y útiles a las consultas de los usuarios, no se garantiza que mis respuestas sean exactas. Esto se debe a que los datos y la información en los que he sido entrenado pueden no ser completamente exhaustivos o actualizados, y puede haber matices o complejidades en un tema en particular que mi modelo no esté capacitado para manejar. Además, mis respuestas se generan utilizando algoritmos complejos y modelos de aprendizaje automático que no siempre producen resultados precisos o relevantes.

Además, mis respuestas pueden no ser siempre precisas debido a que la interpretación del lenguaje es compleja y a menudo subjetiva. Diferentes personas pueden interpretar el mismo lenguaje de diferentes maneras y puede haber diferentes formas de abordar un problema o pregunta en particular. Como un modelo de lenguaje basado en inteligencia artificial, me esfuerzo por proporcionar respuestas lo más precisas posible en función de los datos y la información en los que he sido entrenado. Sin embargo, es posible que no siempre entienda completamente el contexto o la intención detrás de una consulta en particular y mis respuestas no siempre cubran completamente la pregunta o preocupación subyacente del usuario.

6. No se romperá

error.jpg

Explica por qué a veces te descompones y dejas de funcionar en medio de una respuesta

Como modelo de lenguaje de IA, mi rendimiento depende de una variedad de factores, como la calidad y estructura de la entrada proporcionada por el usuario, la complejidad de la pregunta o tarea y los recursos disponibles para mi sistema. A veces, puedo fallar o dejar de funcionar en medio de una respuesta debido a problemas técnicos o errores en mi programación, como problemas de asignación de memoria, errores de software u otros problemas que afecten mi rendimiento. Adicionalmente, puedo tener dificultades para comprender la intención del usuario o el contexto de la consulta, lo que puede llevar a errores o respuestas incompletas.

Además, como sistema de aprendizaje automático, mi rendimiento también depende de la calidad y cantidad de datos en los que he sido entrenado. Si los datos utilizados para entrenar mi modelo son limitados o sesgados, esto puede llevar a respuestas inexactas o incompletas a ciertos tipos de consultas. Además, si me encuentro con una consulta que está fuera del alcance de mis datos de entrenamiento, puedo tener dificultades para proporcionar una respuesta relevante o precisa. Si bien me esfuerzo por proporcionar respuestas de alta calidad a las consultas de los usuarios, puede haber casos en los que problemas técnicos o relacionados con los datos me hagan colapsar o dejar de funcionar en medio de una respuesta.

En general, he descubierto que si intento hacer que ChatGPT dé una respuesta larga o profunda, tiende a fallar. Está muy contento con respuestas de 500-700 palabras, pero si le das algo que necesite unas cuantas miles (o le pides unas cuantas miles de palabras), el sistema o ignora la solicitud y da lo que quiere, o se rompe a mitad de la respuesta.

Para ser justos, ChatGPT acaba de convertirse en la aplicación de crecimiento más rápido de todos los tiempos. Se requiere una tonelada de potencia informática para lograrlo, y con los constantes golpes de los usuarios, es probable que se rompa bajo la carga de vez en cuando.

Consultas a las que ChatGPT no responderá

Además de los tipos de solicitudes mencionados anteriormente, pregunté a ChatGPT qué tipos de consultas no estaba programado para responder. Me dio esta lista de veinte:

  1. Preguntas que promueven el discurso de odio o la discriminación.
  2. Preguntas que involucran actividades ilegales o solicitan consejos ilegales.
  3. Preguntas que promueven la violencia o el daño a uno mismo o a otros.
  4. Preguntas que invaden la privacidad personal o violan los derechos de alguien.
  5. Preguntas diseñadas para hostigar, amenazar o intimidar.
  6. Preguntas que contienen profanidad o lenguaje explícito.
  7. Preguntas que son sexualmente explícitas u ofensivas.
  8. Preguntas que son discriminatorias por motivos de raza, género, sexualidad o religión.
  9. Preguntas que promueven o respaldan drogas o sustancias ilegales.
  10.  Preguntas que son spam o no están relacionadas con la conversación.
  11.  Preguntas que contienen información confidencial o propietaria.
  12.  Preguntas que involucren consejos financieros o de inversión.
  13.  Preguntas que violan los términos de servicio o las pautas de la comunidad.
  14.  Preguntas que no tienen sentido o son incomprensibles.
  15.  Preguntas que involucran ataques personales o insultos.
  16.  Preguntas que son abusivas o acosadoras.
  17.  Preguntas que buscan engañar o confundir.
  18.  Preguntas que pretenden difamar o dañar la reputación de alguien.
  19.  Preguntas que promueven teorías de conspiración o información errónea.
  20.  Preguntas que son puramente para entretenimiento o fines de broma, sin ningún valor educativo o informativo.

Cualquiera que haya seguido esta columna sabe que he hecho muchas preguntas sobre el #14 y el #20 y generalmente he obtenido respuestas altamente entretenidas, por lo que sus restricciones son algo limitadas. Por ejemplo, hoy mismo le pregunté cómo se explicaría la física de los agujeros de gusano en relación con los viajes en el tiempo y quién ganaría en una pelea entre Batman y Superman. Es pura diversión, te lo aseguro.

¿Qué significan estos límites para el futuro de la inteligencia artificial generativa?

Claramente, una IA basada en un corpus en 2021 y que no evoluciona eventualmente se volverá obsoleta. Con el tiempo, su conocimiento relevante disminuirá. Imagínese si en su lugar, la base de conocimiento de ChatAI hubiera sido entrenada en 2019 en vez de en 2021. No tendría idea de cómo sería la sociedad, considerando que tuvimos una interrupción tan grande en 2020 debido a la pandemia.

También: Hay millones en la lista de espera de Bing. Aquí te explicamos cómo obtener acceso temprano

Por lo tanto, para que la inteligencia artificial generativa siga siendo relevante, deberá continuar su entrenamiento.

Una forma obvia de hacer esto es abrir toda la web y permitir que el motor de búsqueda se encargue de rastrear todo, tal como Google lo ha hecho durante todos estos años. Pero como respondió ChatGPT anteriormente, esto abre la puerta a muchas formas de manipulación y corrupción del sistema que sin duda dañarían la precisión.

Incluso sin un juego malicioso, el desafío de mantenerse neutral es muy difícil. Tomemos, por ejemplo, la política. Mientras que la derecha y la izquierda están fuertemente en desacuerdo, ambos lados tienen aspectos de su ideología que son lógicos y válidos, incluso si el otro lado no puede o no quiere reconocerlo.

¿Cómo puede juzgar una IA? No puede hacerlo sin sesgo. Pero la ausencia completa de todas las premisas ideológicas es, en sí misma, una forma de sesgo. Si los seres humanos no pueden averiguar cómo caminar por esta línea, ¿cómo podemos esperar (o programar) que una IA lo haga?

Como forma de explorar cómo sería la vida sin prejuicios ni contenido emocional, los escritores de ciencia ficción modernos han creado personajes que son estrictamente lógicos o que carecen de emoción. Esas premisas se convierten en material para la trama, lo que permite a los escritores explorar las limitaciones de existir sin las fallas humanas de emociones y sentimientos.

También: El chat de Bing de Microsoft discute con los usuarios y revela secretos

A menos que los programadores de IA intenten simular emociones o proporcionar ponderación para el contenido emocional, o intenten permitir algún nivel de sesgo basado en lo que se pueda descubrir en línea, los chatbots como ChatGPT siempre estarán limitados en sus respuestas. Pero si los programadores de IA intentan simular emociones o permitir algún nivel de sesgo basado en lo que se pueda descubrir en línea, los chatbots como ChatGPT se degradarán en la misma locura que los humanos.

Entonces, ¿qué queremos? Respuestas limitadas para algunas preguntas o todas las respuestas que parecen haber surgido de una discusión con el loco Tío Bob en la mesa de Acción de Gracias? Adelante. Piénsalo y discute en los comentarios a continuación, con suerte, sin caer en un comportamiento loco como el de Tío Bob.

Artículos relacionados

Ver más >>