El mes pasado، días antes de la Coración del rey Carlos III el 6 de Mayo، una petición de semblanza hecha a ChatGPT arrojó un resultado llamativo.
El chatbot de inteligencia Artificial (IA) de la firma OpenAI señaló en un párrafo:
“La ceremonia de coración tuvo lugar en la Abadía de Westminster، en Londres، El 19 de Mayo de 2023. La abadía ha sido el escenario de las coraciones de los monarcas británicos desde el siglo XI، y es مراعاة uno de los lugares más sagrados y emblemáticos del país “.
إستي بارفو حاضرó لو كيو حد ذاته كونوس كومو أونا “alucinación”.
En el entorno de la IA se le llama así a معلومات عن arrojada por el sistema que، aunque esté escrita de manera coherente، presenta datosrectos، sesgados o plenamente erróneos.
La Coración de Carlos III ocurriría el 6 de Mayo، pero por alguna razón ChatGPT llegó a la conclusión de que habría de darse el día 19 de Mayo.
El sistema advierte que solo puede generar respuestas con base en información disponible en internet hasta septiembre de 2021، por lo que es posible que pueda caer en este tipo de problemas a la hora de ofrecer una respuesta a una Consulta.
“GPT-4 todavía tiene muchas limitaciones conocidas que estamos trabajando para abordar، como los prejuicios sociales، las alucinaciones y las indicaciones contradictorias“، explicó OpenaAI en su lanzamiento de la versión GPT-4 del chatbot، el pasado marzo.
Pero no es un fenómeno excelivo del sistema de OpenAI. También se presenta en el chatbot de Google، Bard، y otros sistemas de IA مماثلة مثل han salido al público recientemente.
Hace unos días، periodistas de اوقات نيويورك pusieron a prueba a ChatGPT sobre la primera vez que el diario publicó un artículo sobre IA. El chatbot ofreció varias respuestas، algunas de ellas exchanadas con datos equivocados، o “alucinaciones”.
“Los chatbots están impulsados por una tecnología llamada modelo de lenguaje grande، o LLM، que aprende sus habilidades analizando cantidades masivas de texto digital extraído de internet”، explicaron los autores del texto para el مرات.
“Al identificar patrones en esos datos، un LLM aprende a hacer una cosa en special: adivinar la siguiente palabra en una secuencia de palabras. Actúa como una versión poderosa de una herramienta de autocompletar“، استمرارية.
Pero debido a que la red está “llena de información falsa، la tecnología قبل تزوير التكرار“، advirtieron.” Y a veces los chatbots اخترع cosas “.
تومارلو يخدع كاوتيلا
Los algoritmos de IA generativa y de aprendizaje de refuerzo son capaces de procesar un cúmulo huge de información de internet en segundos y generar un nuevo texto، casi siempre muy coherente، con una redacción infecable، pero que ديبي سير تومادو يخدع كاوتيلا، أعلن عن الخبراء.
Tanto Google como OpenAI han pedido a los usuarios que tengan esta thinkación en mente.
En el caso de OpenAI، que tiene una alianza con Microsoft y su buscador Bing، señalan que “GPT-4 tiene la tenar a ‘alucinar’، es decir، ‘Product contenido sin sentido o falso en relación con ciertas fuentes’ “.
“Esta Tendencia puede ser specialmente dañina a medida que los modelos se vuelven cada vez más conventes y creíbles، lo que lleva a que los usuarios confíen demasiado en ellos “، aclaró la firma en un documento advunto al lanzamiento de su nueva versión del chatbot.
Los usuarios، por tanto، no deberían Confiar ciegamente en las Respuestas que ofrece، Principmente en áreas que involucren features importantes para su vida، como consejos médicos o legales.
OpenAI señala que ha trabajado en “una variedad de métodos” para impedir que las “alucinaciones” lleguen a ser arrojadas en las respuestas a los usuarios ، بما في ذلك تقييم las una variedad de métodos “para impedir que las” alucinaciones “lleguen a ser arrojadas en las respuestas a los usuarios ، بما في ذلك تقييم las una variedad de métodos” para impedir que las “alucinaciones” noticias falsas.
Recuerda كيو puedes recibir notificaciones de BBC Mundo. Descarga la nueva versión de nuestra app y actívalas para no perderte nuestro mejor contenido.
اترك ردك