Operai parece estar anunciando nuevos modelos de IA por semana para mejorar su chatgpt chatbot para el mejoramiento de sus 400 millones de usuarios. Sin embargo, la facilidad que proporciona la herramienta AI parece demostrar que es posible tener demasiado de algo bueno.
La compañía de inteligencia synthetic ahora está profundizando en las posibles ramificaciones psicológicas que ChatGPT podría tener en sus usuarios. Operai ha publicado los resultados de un estudio de dos partes Completado junto con MIT Media Lab, que descubrió una conexión entre el mayor uso del chatgpt chatbot y el aumento de los sentimientos de soledad de los usuarios.
Cada organización realizó un estudio independiente y luego compiló los resultados a una conclusión consolidada. El estudio de OpenAI examinó más de un mes “más de 40 millones de interacciones ChatGPT”, que no incluían la participación humana para mantener la privacidad del usuario. Mientras tanto, MIT observó aproximadamente 1,000 participantes usando CHATGPT durante 28 días. Actualmente, los estudios aún no han sido revisados por pares.
El estudio del MIT profundizó en diferentes funciones de uso que podrían afectar la experiencia emocional de los usuarios interactuando con ChatGPT, incluido el uso de texto o voz. Los resultados encontraron que cualquiera de los medios tenía el potencial de provocar la soledad o afectar la socialización de los usuarios durante el momento del estudio. La inflexión de voz y la elección del tema también fueron un punto importante de comparación.
Un tono impartial utilizado en el modo de voz de ChatGPT period menos possible que condujera a un resultado emocional negativo para los participantes. Mientras tanto, el estudio observó una correlación entre los participantes que tienen conversaciones personales con ChatGPT y la mayor probabilidad de soledad; Sin embargo, estos efectos fueron a corto plazo. Aquellos que usan chat de texto incluso para conversar sobre temas generales experimentaron mayores casos de dependencia emocional del chatbot.
El estudio también observó que aquellos que informaron ver a ChatGPT como amigo, y aquellos que ya tenían una propensión a un fuerte apego emocional en las relaciones, tenían más probabilidades de sentirse más solitarios y más emocionalmente dependientes del chatbot mientras participaban en el estudio.
El estudio de Openi agregó un contexto adicional, con sus resultados señalando en basic que interactuar con ChatGPT para fines emocionales period raro. Además, el estudio encontró que incluso entre los usuarios pesados que implementaron la función de modo de voz avanzado en el chatbot y tenían más probabilidades de responder que consideraban que ChatGPT period un amigo, este grupo de participantes experimentó bajas reacciones emocionales a interactuar con el chatbot.
Operai concluyó que su intención con estos estudios es comprender los desafíos que podrían surgir debido a su tecnología, así como poder establecer expectativas y ejemplos sobre cómo se deben utilizar sus modelos.
Si bien OpenAi sugiere que su estudio basado en la interacción simula los comportamientos de las personas reales, más de unos pocos humanos reales han admitido en foros públicos, como Redditpara usar chatgpt en lugar de ir a un terapeuta con sus emociones.