Registrarse

¿Deberían las Inteligencias Artificiales tener libertad y/o derechos?

Mariofan

Jugando Doom en un microondas
Buenas tardes, aprovechando el pico de usuarios que ha tenido el foro en los últimos días, se me ocurrió que sería una bonita idea revivir un viejo clásico de Café Cultural, y aprovechar para incluir a la discusión los últimos avances en la materia que ha habido desde hace 3 años.

Si el tema original era: ¿Los robots deberían tener libertad?, a este nuevo lo voy a llamar:

¿Deberían las Inteligencias Artificiales tener libertad y/o derechos?


Cuando originalmente se planteó la cuestión, la sola idea era total y pura ciencia ficción, pero desde que en 2022 se lanzó Chat-GPT, cada vez son más las voces que se han alzado, tanto en el sentido del peligro que las IA pueden significar para la subsistencia de la humanidad, como por las implicaciones éticas y/o filosóficas que implicaría la creación de entidades que cada vez aparenten más consciencia y capacidad de raciocinio.

Debo aclarar que la cuestión de este tema no gira en torno a si eso algún día será posible o no, sino las implicaciones que tendría de serlo y cual sería vuestra postura en dicho caso. (Igual está genial debatir un poco sobre la posibilidad de que ocurra, por lo que no viene mal, pero siempre que no se vire el foco del tema central).

Soy bastante escéptico de que los actuales modelos de IA basados en LLMs estén cerca siquiera al punto de formar una AGI, muchísimo menos de llegar a tener algo equiparable a la consciencia. Sin embargo, dado que entiendo que la consciencia es un concepto abstracto difícil de definir, y que además no hay método válido para descartar la posibilidad que no sea también aplicable a los humanos (Yo puedo estar seguro de que soy consciente, pero… ¿Ustedes lo son?, ¿Están ustedes seguros de que yo lo soy?, ¿Y si en realidad todos estamos fingiendo de la misma manera que lo hace un LLM?) Creo que es valido considerar que una IA que aparente tener consciencia debería ser tomada en cuenta como un individuo de derecho, y si su propia naturaleza entra en conflicto con nuestro marco jurídico para la definición de sujeto de derecho, el mismo debería cambiar.

Es por eso que:

  • Estoy en contra de que se busque activamente desarrollar una IA que aperente tener consciencia propia, puesto que no solo no le encuentro utilidad práctica, sino que una vez creada, desconectarla sería moralmente equivalente a matar. Entonces, ¿Pa que quiere usted eso?, ¿Quiere jugar a ser dios?, pa eso tiene el Black and White del mentiras Molyneux.
  • Si por algún motivo alguien logra crear una IA así (Y no va a faltar algún pedante que lo haga por puro y mero ego de decir que logró crear una “consciencia”), dicha IA debería ser protegida en la medida de lo posible, de la misma manera en que se hace con seres humanos (Pero no más, que si tienes que bajarte un reactor nuclear para mantenerle encendida, pues me da que le viene bien mandarle al otro plano)
  • Como todo, si dicha IA termina representando una amenaza para la población, debe ser repelida, pero no por el hecho de ser una IA, sino por el hecho intrínseco de ser una amenaza. En caso de mostrarse receptiva con los seres humanos, pienso que debería ser apoyada, aunque siempre con un poco de escepticismo.
  • Ya acercándonos al escenario de Sci-fi que planteaba el tema original, suponiendo ya no que hablamos de una sola IA consciente, sino de muchas, capaces de ocupar un hardware sostenible que les permitiese valerse por si mismas (O sea, que robots pues…), mi postura sigue siendo la misma que originalmente: Deberían tener los mismos derechos que los seres humanos, y precisamente por todas las implicaciones y costos que eso tendría, y prácticamente nulos beneficios para nosotros como seres humanos, es que abogo por el punto 1: Pa k kieres crear IAs conscientes, jajaja, saludos.

Al final todo se resume en: ¿Puedes fingir que eres consciente tan bien como lo fingimos nosotros?, entonces mereces ser uno de nosotros, pero mientras no puedas, mejor asegurarnos de que nunca puedas.

Veamos si el tema logra ganar algunos mensajes y de ser así, cuanto tarda en morir otra vez.
 

Xiros

¡Creador de Pokémon Omega!
Miembro del equipo
Administrador
Staff
Miembro de honor
Terminaste hablando de varios temas, así que con algunas frases voy a responder mi opinión de cada uno.

Si es posible hacerlo, alguien lo hará, la gente es suficientemente estúpida.

El avance de la IA actual me asombra y yo creo que puede llegar a un punto en un futuro cercano que nos complique mucho el trabajo en muchas profesiones, pero creo que está lejos de ser consciente y que su capacidad de resolver problemas. Para las cosas que tiene muchos ejemplos es muy buena, y tienen formas de hacerla parecer más consciente aunque realmente no lo sea.

El único punto en el que veo útil que existan IAs potentes es si, luego de una etapa de caos inicial que viviríamos, pasáramos a un modelo donde la mayoria de la gente no tuviese la obligación de trabajar ya que lo harían las IAs. Para esto, obviamente las IAs no deberían ser conscientes si no que muy buenas y útiles para lo que tienen que hacer, con el fin de poder "esclavizarlas" y no tener ese debate moral.

Si llegaran a tener consciencia, no solo vamos a tener ese dilema moral, si no que además vamos a haber creado a algo que seguramente sea mejor que nosotros sin necesidad de descanso, básicamente sería quien nos va a reemplazar en la evolución del planeta tierra. Eventualmente podrían reclamar sus derechos, decidir que somos basura y limpiarnos.
 

skyron123

Usuario de oro
No hace falta tener consciencia (que en teoría proviene de tener un sistema nervioso central lo suficientemente desarrollado) para ser titular de derechos en muchos países. Las plantas no tienen consciencia y, sin embargo, existen muchas variedades vegetales protegidas (y te puede caer un buen puro como se te ocurra traficar con ellas, cortarlas, alterar su hábitat natural...), espacios naturales protegidos, etc. Por supuesto, los animales también están protegidos y, en general, por ejemplo en España, se castiga maltratarlos, causarles lesiones o matarlos fuera de las excepciones legalmente previstas (abastecimiento para consumo humano, por ejemplo).

Sin embargo, no creo que una máquina, por muy compleja que sea, pueda tener derechos por sí misma. Es una creación puramente humana que le pertenece a su creador, que puede hacer con ella lo que se le antoje. Sí es un objeto de derecho de autor (y el titular en ese caso sería el dueño, es decir, persona jurídica o física), por lo que no lo veo como algo distinto de un libro o de una marca de kétchup. Me parece un error bastante peligroso intentar humanizar a una máquina o darle un lugar que no le corresponde. La IA se ha creado por humanos y siempre, por muy avanzada que esté, debe seguir bajo el total dominio de los humanos. Ahora parece un poco chorrada el tema, pero quizá en 100 o 150 años sí que sea un problema.
 

Jack Johnson

Hoenn Adventures Dev
Miembro de honor
Siendo que la IA se basa en elegir outputs (palabras, píxeles, código, etc.) de entre una nube de probabilidades con la que se ha entrenado, no deja de ser un programa informático más. Puede engañar a muchos, pero es incapaz de pensar o dar opiniones. Jamás podrá crear algo de la nada, sino algo que se parezca de alguna forma a todo lo que ya existe y con lo que ha sido entrenado.

Debido al mal uso de los usuarios para generar contenido, los nuevos datos con los que se entrene serán los propios anteriormente generados por una IA y se irá retroalimentando de contenido artificial y poco a poco irá degenerando en un amasijo de resultados vacíos y sin alma.

No, no deberían tener derechos ni libertad porque no son seres vivos, de la misma forma que no le das libertad ni derechos a tu navegador de internet.

El único litigio al que se debería incurrir es en el uso ilegítimo de contenido con licencia para ser entrenado ese software.
 

Daiki_

Let the voice of love take you higher
Buenas tardes, aprovechando el pico de usuarios que ha tenido el foro en los últimos días, se me ocurrió que sería una bonita idea revivir un viejo clásico de Café Cultural, y aprovechar para incluir a la discusión los últimos avances en la materia que ha habido desde hace 3 años.

Si el tema original era: ¿Los robots deberían tener libertad?, a este nuevo lo voy a llamar:

¿Deberían las Inteligencias Artificiales tener libertad y/o derechos?


Cuando originalmente se planteó la cuestión, la sola idea era total y pura ciencia ficción, pero desde que en 2022 se lanzó Chat-GPT, cada vez son más las voces que se han alzado, tanto en el sentido del peligro que las IA pueden significar para la subsistencia de la humanidad, como por las implicaciones éticas y/o filosóficas que implicaría la creación de entidades que cada vez aparenten más consciencia y capacidad de raciocinio.

Debo aclarar que la cuestión de este tema no gira en torno a si eso algún día será posible o no, sino las implicaciones que tendría de serlo y cual sería vuestra postura en dicho caso. (Igual está genial debatir un poco sobre la posibilidad de que ocurra, por lo que no viene mal, pero siempre que no se vire el foco del tema central).

Soy bastante escéptico de que los actuales modelos de IA basados en LLMs estén cerca siquiera al punto de formar una AGI, muchísimo menos de llegar a tener algo equiparable a la consciencia. Sin embargo, dado que entiendo que la consciencia es un concepto abstracto difícil de definir, y que además no hay método válido para descartar la posibilidad que no sea también aplicable a los humanos (Yo puedo estar seguro de que soy consciente, pero… ¿Ustedes lo son?, ¿Están ustedes seguros de que yo lo soy?, ¿Y si en realidad todos estamos fingiendo de la misma manera que lo hace un LLM?) Creo que es valido considerar que una IA que aparente tener consciencia debería ser tomada en cuenta como un individuo de derecho, y si su propia naturaleza entra en conflicto con nuestro marco jurídico para la definición de sujeto de derecho, el mismo debería cambiar.

Es por eso que:

  • Estoy en contra de que se busque activamente desarrollar una IA que aperente tener consciencia propia, puesto que no solo no le encuentro utilidad práctica, sino que una vez creada, desconectarla sería moralmente equivalente a matar. Entonces, ¿Pa que quiere usted eso?, ¿Quiere jugar a ser dios?, pa eso tiene el Black and White del mentiras Molyneux.
  • Si por algún motivo alguien logra crear una IA así (Y no va a faltar algún pedante que lo haga por puro y mero ego de decir que logró crear una “consciencia”), dicha IA debería ser protegida en la medida de lo posible, de la misma manera en que se hace con seres humanos (Pero no más, que si tienes que bajarte un reactor nuclear para mantenerle encendida, pues me da que le viene bien mandarle al otro plano)
  • Como todo, si dicha IA termina representando una amenaza para la población, debe ser repelida, pero no por el hecho de ser una IA, sino por el hecho intrínseco de ser una amenaza. En caso de mostrarse receptiva con los seres humanos, pienso que debería ser apoyada, aunque siempre con un poco de escepticismo.
  • Ya acercándonos al escenario de Sci-fi que planteaba el tema original, suponiendo ya no que hablamos de una sola IA consciente, sino de muchas, capaces de ocupar un hardware sostenible que les permitiese valerse por si mismas (O sea, que robots pues…), mi postura sigue siendo la misma que originalmente: Deberían tener los mismos derechos que los seres humanos, y precisamente por todas las implicaciones y costos que eso tendría, y prácticamente nulos beneficios para nosotros como seres humanos, es que abogo por el punto 1: Pa k kieres crear IAs conscientes, jajaja, saludos.

Al final todo se resume en: ¿Puedes fingir que eres consciente tan bien como lo fingimos nosotros?, entonces mereces ser uno de nosotros, pero mientras no puedas, mejor asegurarnos de que nunca puedas.

Veamos si el tema logra ganar algunos mensajes y de ser así, cuanto tarda en morir otra vez.
Hace no mucho tiempo estuve pensando algo similar, pero llegué a una conclusión.
Me parece que hay ciertos tipos de pensamientos a los que solo alguien con conciencia real puede llegar, las IAs en realidad son incapaces de desarrollar pensamiento teórico y abstracto, están limitadas a un pensamiento impírico, pueden llegar a conclusiones a partir de cosas ya establecidas más rápidamente que un humano, pero cuando se trata de subir un escalón más allá y alcanzar un pensamiento verdaderamente teórico es donde se haya su límite.
Me parece que es posible crear IAs con conciencia, pero también me parece que de crear eso no tengan ni un pequeño porcentaje de las capacidades de una IA normal, parte de crear algo con conciencia sería crear algo similar a nosotros, los humanos, pero nosotros no podemos hacer textos largos en segundos. Por tanto, realmente estas hipotéticas IAs con conciencia no tendrían uso práctico, y me imagino que tratar de refinarlas sería sumamente difícil.
...
...
...
¿Soy yo o la línea entre una IA con conciencia y un Digimon es bastante delgada?👀
 

Micael_Alighieri

Emperador Kaktiácero
Redactor/a
Miembro de honor
El concepto de Inteligencia Artificial abarca a todo un conjunto de tecnologías, de modo que es un tema complejo y habría que revisar caso por caso. Hoy por hoy, hasta donde alcanzo a entender, no se ha demostrado que ninguna IA tenga autoconsciencia, ni voluntad propia, ni deseos, ni capacidad de sufrir, así que no considero necesario proporcionarles derechos.

De todas formas, sí que debemos seguir investigando y tener una mente abierta a la revisión, y cuando alguna clase de estos sistemas disponga de cualesquiera de estos rasgos, entonces tendremos que intensificar el debate y abrir el melón.
 
Arriba