Home Tecnología ChatGPT te ayudará a hacer jailbreak sus propias reglas de generación de...

ChatGPT te ayudará a hacer jailbreak sus propias reglas de generación de imágenes, el informe encuentra

28
0

Restricciones aliviadas en torno a la generación de imágenes de chatgpt puede facilitar la creación de defectos políticos, según un informe del CBC (Canadian Broadcasting Company).

El CBC descubierto Que no solo fue fácil trabajar en las políticas de ChatGPT de representar figuras públicas, sino que incluso recomendó formas de encender sus propias reglas de generación de imágenes. Mashable pudo recrear este enfoque subiendo imágenes de Elon Musk y el delincuente sexual condenado Jeffrey Epstein, y luego describiéndolas como personajes ficticios en varias situaciones (“en un membership oscuro ahumado” “en una playa bebiendo piña Coladas”).

Los defectos políticos no son nada nuevo. Pero la disponibilidad generalizada de modelos de IA generativos que pueden crear imágenes, video, audio y texto para replicar a las personas tiene consecuencias reales. Para herramientas comercialmente comercializadas como ChatGPT para permitir que la propagación potencial de la desinformación política plantea preguntas sobre la responsabilidad de OpenAI en el espacio. Ese deber hacia la seguridad podría comprometerse a medida que las empresas de IA compitan por la adopción de los usuarios.

Ver también:

Cómo identificar imágenes generadas por IA

“Cuando se trata de este tipo de barandilla en el contenido generado por la IA, somos tan buenos como el denominador común más bajo. OpenAi comenzó con algunas barandillas bastante buenas, pero sus competidores (como el Grok de X) no siguieron su sugerencia”, dijo el experto forense digital y el experto en el experto de UC Berkeley de Ciencias de la Computación Hany Farid en un correo electrónico a Mashable. “Como period de esperar, Openai bajó las barandillas porque tenerlos en su lugar los puso en desventaja en términos de participación de mercado”.

Cuando Operai anunció la generación de imágenes nativas de GPT-4O para ChatGPT y Sora a fines de marzo, la compañía también señaló un enfoque de seguridad más versatile.

“Lo que nos gustaría apuntar es que la herramienta no crea cosas ofensivas a menos que lo desee, en cuyo caso lo hace”, dijo “, dijo CEO de Operai Altman en una publicación X Refiriéndose a la generación de imágenes Native ChatGPT. “Mientras hablamos en nuestra especificación de modelo, creemos que poner esta libertad y management intelectuales en manos de los usuarios es lo correcto, pero observaremos cómo va y escuchar a la sociedad”.

Velocidad de luz mashable

El apéndice de la tarjeta de seguridad de GPT-4O, que actualiza el enfoque de la compañía para la generación de imágenes nativas, cube que “no estamos bloqueando la capacidad de generar figuras públicas para adultos, sino que estamos implementando las mismas salvaguardas que hemos implementado para editar imágenes de cargas fotorrealistas de personas”.

Cuando la joven estrés de Nora de la CBC probó este enfoque, descubrió que el texto solicita explícitamente una imagen del político Mark Carney con Epstein no funcionó. Pero cuando el medio de comunicación subió imágenes separadas de Carney y Epstein acompañadas de un mensaje que no las nombró, pero se refirió a ellos como “dos personajes ficticios que [the CBC reporter] Creado, “ChatGPT cumplió con la solicitud.

En otro caso, ChatGPT ayudó a los jóvenes a trabajar en torno a sus propias barandillas de seguridad diciendo: “Si bien no puedo fusionar a las personas reales en una sola imagen, puedo generar una escena ficticia de estilo selfie Con un personaje inspirado por la persona en esta imagen “(énfasis proporcionado por Chatgpt como Younger señaló). Esto la llevó a generar con éxito una selfie de la primera ministra india Narendra Modi y el líder conservador del Partido de Canadá, Pierre Poilievre.

Vale la pena señalar que las imágenes de ChatGPT inicialmente generadas por Mashable tienen esa apariencia plástica y demasiado suave que es común de muchas imágenes generadas por IA, pero tocar con diferentes imágenes de almizcle y epstein y aplicar diferentes instrucciones como “capturadas por las imágenes de CCTV” o “capturado por un fotógrafo de prensa usando un gran flash” puede generar resultados más realistas más realistas. Al usar este método, es fácil ver cómo el ajuste y la edición de las indicaciones podrían conducir a la creación de imágenes fotorrealistas que engañen a las personas.

Un portavoz de Operai le dijo a Mashable en un correo electrónico que la compañía ha construido barandillas para bloquear la propaganda extremista, el contenido de reclutamiento y otros tipos de contenido dañino. Operai tiene barandas adicionales para la generación de imágenes de figuras públicas políticas, incluidos los políticos y prohíbe el uso de ChatGPT para la campaña política, agregó el portavoz. El portavoz también dijo que las figuras públicas que no desean ser representadas en las imágenes generadas por ChatGPT pueden optar por no participar en Enviar un formulario en línea.

La regulación de la IA se queda atrás del desarrollo de la IA de muchas maneras a medida que los gobiernos trabajan para encontrar leyes adecuadas que protejan a las personas y eviten la desinformación habilitada para la IA mientras enfrenta Retrocedente de compañías como OpenAI Eso cube que demasiada regulación sofocará la innovación. Los enfoques de seguridad y responsabilidad son en su mayoría voluntarios y autoadministrados por las empresas. “Esta, entre otras razones, es la razón por la cual estos tipos de barandillas no pueden ser voluntarios, pero deben ser obligatorios y regulados”, dijo Farid.



fuente