La startup china Deepseek AI y sus modelos de idiomas de código abierto se hicieron cargo del ciclo de noticias esta semana. Además de ser comparables a modelos como Claude de Anthrope y Openi's O1, los modelos han planteado varias preocupaciones sobre la privacidad de los datos, la seguridad y la censura forzada al gobierno chino dentro de su capacitación.
La plataforma de búsqueda de IA Perplexity y AI Assistant You.com han encontrado una forma de evitarlo.
También: el modelo de IA de Deepseek resulta fácil de jailbreak, y peor
El lunes, perplejidad Publicado en x que ahora alberga Deepseek R1. El plan gratuito brinda a los usuarios tres consultas de nivel profesional por día, que podría usar con R1, pero necesitará el plan profesional de $ 20 por mes para acceder a ella más que eso.
Deepseek R1 ahora está disponible sobre perplejidad para apoyar la investigación net profunda. Hay un nuevo selector de modo de razonamiento Professional Search, junto con OpenAI O1, con una cadena de pensamiento transparente en el razonamiento del modelo. Estamos aumentando el número de usos diarios para obtener más free of charge y pagar como agregar más … pic.twitter.com/kijwpppjvn
– perplejidad (@perplexity_ai) 27 de enero de 2025
En otro correola compañía confirmó que aloja a Deepseek “en los centros de datos de EE. UU./UE: sus datos nunca abandonan los servidores occidentales”, asegurando a los usuarios que sus datos serían seguros si usen los modelos de código abierto sobre la perplejidad.
“Ninguno de sus datos va a China”, reiteró el CEO de Perplexity CEO Aravind Srinivas en un Publicación de LinkedIn.
Además: probé las habilidades de codificación R1 y V3 de Deepseek, y no todos estamos condenados (todavía)
El asistente de IA de Deepseek, impulsado por sus modelos V3 y R1, es accesible a través del navegador o la aplicación, pero aquellos requieren comunicación con los servidores con sede en China de la compañía, lo que crea un riesgo de seguridad. Los usuarios que descarguen R1 y lo ejecutan localmente en sus dispositivos evitarán ese problema, pero aún así se encuentran con la censura de ciertos temas determinados por el gobierno chino, ya que está incorporado de forma predeterminada.
Como parte de la oferta de R1, la perplejidad afirmó que eliminó al menos parte de la censura integrada en el modelo. Srinivas publicó un captura de pantalla en x de resultados de consulta que reconocen al presidente de Taiwán.
Para verificar, le pregunté a R1 sobre la plaza Tiananmen usando perplejidad, pero se negó a responder.
El soporte de perplejidad aclaró que esto se debió a que R1 estaba configurado en modo de escritura y, por lo tanto, no estaba conectado a fuentes que lo ayudarían a proporcionar una respuesta sin censura. Sin embargo, cuando le pregunté a R1 si está capacitado para no responder ciertas preguntas determinadas por el gobierno chino, respondió que está diseñado para “centrarse en la información objetiva” y “evitar comentarios políticos”, y que su capacitación “enfatiza la neutralidad en el international asuntos “y” sensibilidad cultural “.
Además: el nuevo agente de investigación profunda de Openi puede hacer en 5 minutos lo que podría llevarle horas
You.com ofrece V3 y R1, de manera comparable solo a través de su nivel Professional, que cuesta $ 15 por mes (descuento de los $ 20 habituales) y sin ninguna consulta gratuita. Además del acceso a todos los modelos que ofrece Yo.com, el plan Professional viene con cargas de archivos de hasta 25 MB por consulta, una ventana de contexto máximo de 64k y acceso a la investigación y los agentes personalizados.
Bryan McCann, cofundador y CTO, explicó en un correo electrónico a ZDNET que los usuarios pueden acceder a R1 y V3 a través de la plataforma de tres maneras, todas las cuales usan “una versión de código abierto no modificada de los modelos Deepseek alojados completamente dentro del United The United Estados para garantizar la privacidad del usuario “.
“La primera forma predeterminada es usar estos modelos dentro del contexto de nuestra capa de confianza patentada. Esto le da a los modelos acceso a fuentes net públicas, un sesgo hacia citar esas fuentes y una inclinación a respetar esas fuentes al generar respuestas”, McCann “, McCann continuado. “La segunda forma es que los usuarios desactive el acceso a fuentes net públicas dentro de sus controles de origen o mediante el uso de los modelos como parte de los agentes personalizados. Esta opción permite a los usuarios explorar las capacidades y el comportamiento únicos de los modelos cuando no se basan en la net pública . La tercera forma es que los usuarios prueben los límites de estos modelos como parte de un agente personalizado agregando sus propias instrucciones, archivos y fuentes “.
También: los mejores modelos de IA de código abierto: todas sus opciones de uso gratuito explicados
McCann señaló que usted.com comparó las respuestas de Deepseek Fashions en función de si tenía acceso a fuentes net. “Notamos que las respuestas de los modelos diferían en varios temas políticos, a veces negándose a responder sobre ciertos temas cuando no se incluyeron fuentes net públicas”, explica. “Cuando nuestra capa de confianza estaba habilitada, fomentando la cita de fuentes net públicas, las respuestas de los modelos respetaban esas fuentes, aparentemente anulando prejuicios políticos anteriores”.
Para los desarrolladores, Deepseek R1 ahora está disponible en plataformas que incluyen Azure y Github, AWSy Nvidia,