Home Tecnología El personaje.Ai abre una puerta trasera a los derechos de libertad de...

El personaje.Ai abre una puerta trasera a los derechos de libertad de expresión para chatbots

24
0

¿Deberían los chatbots de IA tener los mismos derechos que los humanos?

El sentido común cube que no, si bien una thought tan descabellada podría ser una buena ciencia ficción, no tiene lugar en la ley estadounidense. Pero en este momento, una importante compañía de tecnología está tratando de dar vida a esa thought, presionando a un tribunal federal para extender las protecciones legales que históricamente se otorgan principalmente a los humanos a los resultados de un bot de IA.

Personaje.Aiuna de las principales aplicaciones de botes complementarios de IA en el mercado, está luchando por el desestimación de una demanda injusta de muerte y responsabilidad del producto sobre La muerte de Sewell Setzer de 14 años III. Como co-abogado de la madre de Sewell, Megan García, y asesora técnica en el caso, respectivamente, hemos estado siguiendo estas mociones de cerca y con preocupación.

En una audiencia la semana pasada, Personaje.Ai Cero en su argumento central: Que las salidas de texto y voz de sus chatbots, incluidos los que manipularon y dañaron a Sewell, constituyen un discurso protegido bajo la Primera Enmienda.

Pero … ¿cómo? El argumento es sutil, diseñado hábilmente para permanecer discreto, incluso cuando resalienta radicalmente la ley de la Primera Enmienda. Personaje.Ai afirma que un hallazgo de responsabilidad en el caso de García no violaría su propio Derechos del habla, pero su usuarios ' Derechos para recibir información e interactuar con las salidas de chatbot como discurso protegido. Tales derechos se conocen en la ley de la Primera Enmienda como “Derechos de los oyentes”, pero la pregunta crítica aquí es: “Si esto es un discurso protegido, ¿hay un orador o la intención de hablar?” Si la respuesta es no, parece que los derechos de los oyentes se están utilizando para evocar las protecciones de la Primera Enmienda para las salidas de IA que no los merecen.

Personaje.Ai afirma que identificar al orador de dicho “discurso” es complejo y ni siquiera es necesario, enfatizando en cambio el derecho de sus millones de usuarios a continuar interactuando con ese “discurso”.

¿Pero pueden hablar las máquinas? Personaje.AiEl argumento sugiere que una serie de palabras escupidas por un modelo de IA sobre la base de determinaciones probabilísticas constituye un “discurso”, incluso si no hay un orador humano, intención o propósito expresivo. Esto ignora una piedra angular de la jurisprudencia de la Primera Enmienda, que cube que el discurso, comunicado por el orador o escuchado por el oyente, debe tener intención expresiva. De hecho, el año pasado cuatro jueces de la Corte Suprema en el Malhumorado Case dijo que la introducción de IA puede “atenuar” el propietario de una plataforma de su discurso.

En esencia, Personaje.Ai lidera a la corte a través de la puerta trasera de la Primera Enmienda de los “Derechos de los oyentes” para argumentar que el texto generado por la ametralladora de un chatbot, creado sin intención expresiva, equivale al discurso protegido.

Ver también:

Compañeros de IA Inseguros para adolescentes menores de 18 años, dicen los investigadores

Esto desafía el sentido común. Una máquina no es un humano, y el texto generado por la máquina no debe disfrutar de los derechos otorgados al discurso pronunciado por un humano o con intención o volición.

Velocidad de luz mashable

Independientemente de cómo se enmarcan los derechos de la Primera Enmienda para los sistemas de IA, como el “discurso” del chatbot, o como el derecho de un usuario a interactuar con ese “discurso”, el resultado, si es aceptado por el tribunal, aún sería el mismo: las salidas de un chatbot inanimadas podrían ganar las mismas protecciones del habla disfrutadas por los humanos reales y vivientes.

Si Personaje.AiEl argumento de los tribunales tiene éxito, establecería un precedente authorized inquietante y podría sentar las bases para la expansión futura y la distorsión de las protecciones constitucionales para incluir productos de IA. Las consecuencias son demasiado graves para permitir que una semilla tan peligrosa se arraiga en nuestra sociedad.

La industria tecnológica ha escapado de la responsabilidad al encubrir en las protecciones de la Primera Enmienda durante más de una década. Aunque la personalidad corporativa ha existido desde finales del siglo XIX, las protecciones de la libertad de expresión se limitaron históricamente a individuos y grupos humanos hasta finales de la década de 1970 y alcanzaron su punto máximo en 2010 con las de la Corte Suprema Ciudadanos unidos caso. Las compañías tecnológicas se han aferrado ansiosamente a la “personalidad corporativa” y protegieron el discurso, ejerciendo estos conceptos para aislarse de la responsabilidad y la regulación. En los últimos años, las compañías tecnológicas han argumentado que incluso su conducta en cómo diseñan sus plataformas, incluidos sus algoritmos y diseños adictivos de redes sociales, en realidad equivale a un discurso protegido.

Pero, al menos con la personalidad corporativa, los humanos dirigen y controlan a las corporaciones. Con la IA, la industria tecnológica nos cube que la IA se dirige a sí misma, a menudo de la manera en que los humanos ni siquiera pueden entender.

Personaje.Ai está intentando impulsar las protecciones de la Primera Enmienda más allá de su límite lógico, con implicaciones inquietantes. Si los tribunales los humorlos, marcará los comienzos constitucionales de la IA que se arrastran hacia la personalidad jurídica.

Esto puede sonar descabellado, pero estos argumentos legales están ocurriendo junto con movimientos importantes de compañías de IA fuera de la sala del tribunal.

Las compañías de IA están afinando sus modelos para parecer más humanos en sus resultados y participar más relacionalmente con los usuarios, planteando preguntas sobre la conciencia y lo que un chatbot de IA podría “merecer”. Simultáneamente, las compañías de IA están canalizando recursos en una investigación de “bienestar de IA” recientemente establecida, explorando si los sistemas de IA podrían justificar la consideración ethical. A nueva campaña Dirigido por antrópico, tiene como objetivo convencer a los encargados de formular políticas, los líderes empresariales y el público en normal de que sus productos de IA podrían algún día ser conscientes y, por lo tanto, dignos de consideración.

En un mundo donde los productos de IA tienen consideración ethical y protecciones de la Primera Enmienda, la extensión de otros derechos legales no está tan lejos.

Ya estamos comenzando a ver la evidencia de las decisiones políticas que guían los “derechos” de la IA a expensas de los valores humanos. Un representante de Nomi Ai, otra compañía de chatbot, dijo recientemente que no quería “censurar” su chatbot Al introducir barandillas, a pesar del producto que ofrece instrucciones paso a paso del usuario sobre cómo suicidarse.

Dado el patrón de larga knowledge de la industria tecnológica de esquivar la responsabilidad de sus productos dañinos, debemos ponernos Personaje.AiLa estrategia authorized desnuda: es un esfuerzo de la compañía para protegerse de la responsabilidad. Al otorgar lentamente derechos a los productos de IA, estas compañías esperan evadir la responsabilidad y negar la responsabilidad humana, incluso para daños reales y demostrados.

No debemos estar distraídos por los debates sobre el “bienestar” de IA o engañados por argumentos legales que otorgan derechos a las máquinas. Más bien, necesitamos responsabilidad por la tecnología peligrosa y la responsabilidad de los desarrolladores que la crean.

Meetali Jain es el fundador y director del Proyecto de Derecho de Justicia Tecnológica, y co-abogado en la demanda de Megan García contra Personaje.Ai. Camille Carlton es directora de políticas del Centro de Tecnología Humana, y es experta técnica en el caso. Esta columna refleja las opiniones de los escritores.



fuente