OneZero : ¿Por qué consideró importante actualizar las tres leyes de Asimov? Además, ¿por qué centrarse en el libro sobre la democratización de estas decisiones sobre cómo se utilizan la robótica y la IA?
Frank Pasquale: Las leyes de Asimov trataban de que los robots no maltrataran a las personas. Y creo que eso es muy importante, sin duda, pero necesitamos más ideas dado nuestro momento presente y el futuro que enfrentamos. Mucho más. Necesitamos asegurar un control humano duradero y democratizado del desarrollo de la tecnología.
Creo que el gran sueño de mucha gente en IA es presumiblemente dejar que asuma el trabajo de médico, enfermera, periodista, maestro, etc. Y mi idea es que ese no es el objetivo que deberíamos perseguir, ¿verdad? La pregunta más importante es, ¿deberíamos siquiera estar haciendo esto en primer lugar? Creo que no. Para mí, la función adecuada de muchos de estos campos tecnológicos es complementar y apoyar a los profesionales, no reemplazarlos.
¿Es plausible pensar que la conversación en torno a la IA podría reformularse así y alejarse del pensamiento de que "los robots van a quitarnos nuestros trabajos"?
Creo que es. Honestamente lo hago. Tomemos el campo de la medicina: hace 10 años, la gente decía: "Cuidado, doctores, los robots van a entrar. Tienen un gran reconocimiento de patrones, grandes datos y te reemplazarán". Y en particular dijeron: "Si eres médico en los campos de radiología, anestesiología, dermatología y patología, todas esas cosas son solo reconocimiento de patrones, y un robot o IA con acceso a millones de imágenes de tejido normal y enfermo es va a hacerlo mucho mejor de lo que puede ".
Una pregunta es: "¿De dónde obtienen esos datos?" Y esos datos son de personas, y tal vez eventualmente se convierta en una máquina que pueda hacerlo por sí misma, pero incluso si pudiera, no reemplaza ninguna de esas posiciones. En realidad, los está complementando de muchas maneras, y debería permanecer así.
Piense en un dermatólogo. Incluso si tiene una aplicación que puede reconocer sus lunares, querrá hablar con una persona real sobre, por ejemplo, “¿Qué tan probable es que esto sea un falso positivo o un falso negativo? ¿Cortamos este lunar o está bien? " Esta es una decisión crítica que deben tomar los humanos.
¿Cuál es el razonamiento detrás de cada una de estas nuevas leyes de robótica propuestas?
Esta visión es muy amplia. Si me saliera con la mía, la amplitud comparable de tareas sería algo así como el New Deal, donde esencialmente se estableció una serie de agencias durante décadas, iniciadas por una legislación que variaba entre cinco y 100 páginas de estatutos. Y luego agencias como la Comisión de Bolsa y Valores, la Comisión Federal de Comunicaciones y otras, con el tiempo, elaboraron lo que significaban los estatutos. Y espero que suceda algo similar con las nuevas leyes de la robótica: que haya agencias independientes que estén facultadas para aplicar estas ideas.
¿Puede dar un par de ejemplos concretos de cómo funcionarían en la práctica algunas de sus leyes?
Por supuesto. Tomemos como ejemplo la primera nueva ley propuesta sobre la complementariedad de las profesiones y la inteligencia artificial: un robot no debe estar certificado como maestro. Podrías permitir que los robots o la IA se utilicen como tecnología que los profesores podrían prescribir, de la misma manera que los médicos recetan medicamentos, pero no aspirarías a tener profesores o una combinación de conferencias en línea supervisadas y seleccionadas únicamente por la IA a la que nunca aspirarías. que esos realmente reemplacen a los maestros. Entonces, esa es la ley de complementariedad en funcionamiento.
La segunda nueva ley, "no falsificación de la humanidad", requeriría, por ejemplo, que cualquier bot que esté en línea esté claramente etiquetado como tal. Y para introducir la cuarta nueva ley, con respecto a la atribución, es que [bot] debería atribuirse a una persona en particular. Y de hecho, el ejemplo de los bots es bueno incluso para la tercera nueva ley de robótica, que diría que en la medida en que estos bots comiencen a proliferar porque la gente está tratando de llamar la atención en línea, podríamos tomar alguna acción legislativa o administrativa para detener esa carrera armamentista para llamar la atención entre los bots.
Su tercera nueva ley se centra en evitar que los robots intensifiquen las carreras armamentistas. Este no se limita a cuestiones militares, ¿verdad?
Eso es correcto. Creo que hay muchas áreas en la vida en las que estamos sujetos al control de la tecnología y en las que las grandes empresas de tecnología utilizan la inteligencia artificial para obtener ganancias al poner a las personas en una carrera de ratas, luchando entre sí. He escrito durante mucho tiempo sobre calificaciones y clasificaciones, y creo que la calificación crediticia fue un ejemplo temprano de esto. Y con los préstamos algorítmicos, solo se está volviendo más intenso, donde verá que más y más prestamistas usan IA para decir: "Bueno, podríamos darle un 1% de descuento en su hipoteca, pero solo necesitamos ver todo el historial de tu teléfono móvil ". O, "Necesitamos ver más datos sobre usted". O, "Le daremos un descuento en su seguro médico, pero solo debe tener este dispositivo portátil que usará inteligencia artificial para calcular exactamente qué tan saludable está".
Este hambre constante de más y más datos es en sí misma una carrera armamentista entre las empresas de tecnología. Establece una carrera armamentista entre los individuos, en la que están tratando de dar más y más datos sobre sí mismos para distinguirse de los demás. Porque recuerde, cada vez que le dan un descuento por su comportamiento o algo así, es probable que a alguien más se le cobre más, ¿verdad? No es que esto se haga por la bondad del corazón de la empresa.
¿Podría discutir más sobre su nueva ley final: que la inteligencia artificial y la robótica deben dirigirse a sus creadores? ¿Por qué es tan importante?
Ese es esencialmente para detener incluso la idea o la aspiración de que la IA sea autónoma de los humanos. Lo que quiero decir con eso es que existen todas estas aspiraciones de ciencia ficción o futuristas para crear robots que podrían ser como sus hijos, digamos. Los entrenamos cuando son jóvenes y luego son enviados al mundo. Imagínense al robot de la película Ex Machina , Ava, simplemente caminando hacia el mundo sin control, y así sucesivamente. Estas cosas nunca deberían suceder.
Esencialmente, cualquier robot que salga al mundo o cualquier IA que se ponga en línea como un bot, todos ellos deben ser rastreables hasta su propietario o controlador, quien podría, en cualquier momento, apagarlos o de otras maneras. alterar su comportamiento. Entonces, en ese punto, no es autónomo. Simplemente nos deshacemos de la idea de la autonomía de la IA. Cancélelo como algo que nunca vamos a hacer.
La razón por la que creo que eso es tan importante es porque me preocupa que vivamos, por ejemplo, en un mundo donde robots de acera, drones u otras cosas pueden acercarse a nosotros y no sabemos qué están haciendo o por qué lo hacen. haciéndolo. Creo que cada vez que se te acerca un dron o un robot de acera, deberías poder apuntar con tu teléfono celular e inmediatamente recibir algo que diga: "Aquí está el propietario, aquí hay alguien con quien puede quejarse", como un aviso de Digital Millennium Copyright Act en un sitio web por infracción de derechos de autor. En otras palabras, aquí está la autoridad de gobierno relevante a la que puede quejarse si el propietario no responde a sus inquietudes.
¿Qué responsabilidades tienen los creadores de la IA y la robótica para lo que acaban siendo utilizados?
Es hora de que los especialistas en robótica y la inteligencia artificial asuman la responsabilidad de ese tipo de increíble maleabilidad y flexibilidad de su software, que podría programarse de otra manera. Tome este ejemplo: no debería enojarme o sentir empatía con un robot que llora porque podría programarse con la misma facilidad para reírse de cualquier cosa que lo haga llorar artificialmente. Y tenemos que ser tercos aquí, porque existe este campo floreciente de la computación afectiva, que para mí es, en muchos sentidos, un preludio de la manipulación y el control de los seres humanos por parte de grandes corporaciones y gobiernos a través de los efectos mediadores de la tecnología. Y tenemos que estar siempre atentos a esas sombrías posibilidades.
En el libro, se centra principalmente en el impacto de la inteligencia artificial y la automatización en los trabajos "profesionales". Pero, ¿qué pasa con los de cuello azul? ¿Qué pasa con las personas que trabajan, digamos, en un almacén o como cajero en una tienda de comestibles?
Es verdad. Y es muy interesante cuando se piensa en el trabajo de cajero, porque se podría decir que cuando hay quioscos automatizados que revisan a la gente, y luego hay una persona mirando tres o cuatro quioscos frente a la tienda, se puede decir: "Bueno, ya está cuatro personas sin trabajo ". Sin embargo, también podría decir: “Bueno, esto ha permitido que una persona sea más productiva, porque ahora están a cargo de estas máquinas que están haciendo que la gente pase, tratando de arreglarlas y otras cosas. Están tratando de asegurarse de que funcione de manera eficiente ".
Esa será una pregunta muy interesante, pero en última instancia, no creo que la política deba interponerse en el camino de la automatización allí, a menos que las personas que están en esos puestos puedan decir: "Oye, hay una razón por la que necesitas el juicio humano y humanos en control de este proceso. Y si nos saca del circuito, habrá un gran problema ".
En su libro anterior, The Black Box Society: The Secret Algorithms That Control Money and Information , usted analiza cómo las plataformas como YouTube y Facebook prosperan mediante el uso de algoritmos para engancharlo y permanecer en sus sitios a través de sugerencias de otro contenido que se basa libremente en lo que estás viendo. Y como todos hemos visto hasta ahora, eso a menudo termina fomentando y difundiendo información errónea y teorías de conspiración. En su opinión, ¿se necesita más regulación para abordar esto también?
Absolutamente. Primero, en el nuevo libro, analizo el problema de la IA que impulsa los medios y se hace cargo de las funciones editoriales, especialmente, e incluso a veces, de las funciones de creación de contenido, que es tan perturbador. Es preocupante porque los sistemas se están optimizando de una manera cruda y reductiva que no refleja los valores sociales de la verdad. Y, como mencionaste, con las teorías de la conspiración siendo rechazadas de manera tan sustancial. Es tan fácil encaminarse hacia ellos. Y el otro problema es que estas plataformas dirán: "Bueno, solo estamos dando a las personas lo que quieren". Pero, de hecho, la forma en que se desarrolla la arquitectura de elección es muy importante en lo que la gente quiere.
No deberíamos vivir en un mundo donde una IA pueda decir: "Está bien, bueno, hay 10 espectadores más si les mostramos estos videos locos de la cábala pedófila o lo que sea". Es solo una forma burda de contar las métricas de éxito.
¿Qué crees que hace que los humanos quieran crear robots e IA que nos simulen?
Los argumentos principales y dominantes para hacer robots que sean como personas surgen de una perspectiva poshumana o transhumana. Entonces, un suscriptor post-humano diría: “Bueno, hemos tenido una buena carrera en la Tierra, pero ya sabes, en última instancia, nuestros cerebros son demasiado lentos. Los robots tienen procesadores más rápidos. Van a entender más y hacer más en el mundo. Déjalos."
Y el transhumanista diría: "Sí, si quieres ir más allá de las limitaciones humanas, probablemente tendrás que ir más allá del cuerpo humano". Y parte de eso es dedicarse a la robótica, fusionarse con ellos, ese tipo de cosas. Y mi opinión es que las perspectivas del transhumanismo y el poshumanismo son, en última instancia, muy antihumanistas.
¿Cómo, específicamente, estas posiciones son antihumanistas?
En parte, un elemento esencial del ser humano es aceptar y comprender nuestras limitaciones. Nuestras debilidades. Y ese esfuerzo por trascenderlo y decir: “Bueno, aquí hay una entidad inmortal; tratémoslo como si estuviera por encima y más allá de lo humano ”, es problemático. Implica rechazar el hecho de que somos mortales. Que sentimos dolor. Tenemos una cantidad limitada de cosas en las que podemos dedicar nuestra atención. Oye, cuando muera, habrá mil millones de libros que no haya leído. Y no creo que alguien pueda decir: "Bueno, imagina que si pudieras, estarías mucho mejor si fueras un robot que pudiera procesar 1 millón de libros en un período de tiempo corto". Mi respuesta corta es que no creo que sea de ninguna manera similar a lo que sucede cuando yo, como persona, leo un libro o cuando lo hace cualquier humano. Hay una forma única de relacionarnos con las cosas, y eso es lo que nos hace singulares.
En general, ¿qué fue lo que más lo motivó a enfrentarse a los sistemas de IA emergentes y a escribir este libro?
Tenía muchas ganas de explorar lo que significaría poner el trabajo humano en el centro de la economía y la sociedad. A diferencia de que el trabajo humano es solo un recurso más, como un recurso natural, donde estas cosas se ingresan en una máquina y lo que les importa hacer se convierte en solo el resultado.
Específicamente, esta búsqueda es realmente importante porque nuestra economía en este momento está orientada hacia cosas como activos financieros, acciones y el dueño de esas cosas, y así es como medimos el éxito de muchas maneras: ¿El mercado de valores está subiendo o bajando? Y mi pregunta es: "¿Cómo podríamos pensar en el futuro de la tecnología y el trabajo en cuanto a hacer del trabajo humano el centro de toda esta discusión?" Y pensar en eso, con suerte, da una perspectiva de cómo la economía podría ser mucho más justa y estable para nosotros, los humanos.
Fuente: Onezero Medium, Noviembre 2020