¿Sabemos qué arquitectura de software se necesita para hacer una IA de nivel de singularidad funcional?

Los detalles son un problema abierto con muchas personas inteligentes (muchas de ellas más que yo) que trabajan duro para avanzar en la tecnología relevante para varias partes del espacio problemático.

También esperaría que, si ocurre algo que se ajuste a la descripción de “la singularidad”, será como resultado de la combinación orgánica y la evolución de sistemas más pequeños, muy similar al surgimiento de Internet moderno de un simple red de mensajería construida por y para el Departamento de Defensa, con millones de personas desde entonces contribuyendo a extender tanto su alcance como su contenido semántico.

En general, sin embargo, un “nivel de singularidad AI” requeriría:

  • Inteligencia Artificial General. La mayor parte del trabajo de AI / ML ahora ha sido de un enfoque relativamente limitado, resolviendo un tipo particular de problema de aprendizaje (predicción de eventos, procesamiento del lenguaje, reconocimiento de imágenes, etc.). Es probable que ese trabajo contribuya al desarrollo de AGI prácticos, junto con una comprensión avanzada de la inteligencia basada en la biología (algo de lo que todavía tenemos una comprensión sorprendentemente confusa), pero todavía hay un camino difícil por delante para los investigadores que trabajan en sistemas de IA que pueden aprender problemas arbitrarios, generalizar lo que han aprendido y usar lo que han aprendido para dirigir su propio aprendizaje como podemos.
  • Mejoras en la eficiencia energética de la computación, porque una inteligencia a nivel humano que cuesta más energía que la requerida para soportar cómodamente a varios humanos reales es interesante pero no muy útil. Algo de esto puede presentarse en forma de prometedoras pero aún experimentales arquitecturas de procesamiento y memoria. Algunas de ellas en mejoras en el proceso de fabricación. Algunos se mudan a un cálculo de precisión reducida o permiten una mayor tasa de resultados erróneos en el comercio por menores requisitos de energía. Parte del cambio a procesadores de baja velocidad masivamente paralelos en lugar de procesadores de alta velocidad modestamente paralelos (ya que el consumo de energía de un chip aumenta aproximadamente al cuadrado de su velocidad, mientras que es el límite superior de la potencia computacional solamente sube linealmente con la velocidad).
  • Distribución eficiente y tolerante a fallas bizantinas de cómputo y memoria. Una inteligencia de nivel de singularidad tendría como una de sus principales ventajas la capacidad de estar “en todas partes” y no sufrir los múltiples puntos únicos de falla que tenemos. No va a ser una computadora grande en algún lugar (y, como ex-mainframer, puedo decir que incluso “una computadora grande” es más como varias computadoras más pequeñas pegadas y colocadas en la misma caja). Será una inteligencia en red, y probablemente actuará más como una sociedad de lo que percibimos como una conciencia única (con nuestra propia conciencia siendo en realidad una resolución de un conjunto de componentes de procesamiento de información biológica interconectados débilmente coordinados que está sujeto a fusionar conflictos y, en casos extremos, particionar igual que un sistema informático distribuido). El trabajo de supercomputación tradicional no ha hecho que la tolerancia a fallas, fallas y conexiones poco confiables sea una prioridad porque se empleó principalmente para el trabajo por lotes que se podría volver a intentar si algo salía mal. Esto está cambiando ahora para abordar tanto los problemas de escala (cuanto más grande es la supercomputadora, más a menudo algo fallará) y nuevas aplicaciones (el trabajo realmente interesante ahora es en tiempo real y distribuido geográficamente).
  • Ojos, oídos, cuerpos y piel. En general, somos inteligentes no solo por nuestro cerebro, sino porque tenemos redes de sensores ricas a través de las cuales podemos recopilar datos de nuestro entorno, pies para llevarnos a nuevos entornos y manos para manipular esos entornos según sea necesario para hacer herramientas o pruebas La validez de nuestros supuestos. Un poderoso sistema de aprendizaje computarizado sin sensores y algunos medios para interactuar con el mundo exterior es un cerebro en un frasco, y probablemente exhibiría el mismo nivel de cordura, sabiduría y apertura a la experiencia que esperaríamos de un niño humano que era criado en forma aislada y privado de cualquier estimulación o interacción significativa con el mundo. Podrías comenzar haciendo que peine Internet e interactúe con el mundo como un sofisticado chatbot, pero una buena mirada a Internet y lo fácil que es para los trolls adoctrinar a los chatbots me da la sensación de que sería mejor dejarlo. ver el mundo directamente en lugar de a través de las opiniones humanas enojadas e ideológicas que dominan la conversación en línea.
  • Una comprensión de cómo enseñar ética a algo que no experimentará emoción o empatía afectiva como lo hacen los humanos neurotípicos. Un AGI (como otras inteligencias creadas por humanos, como gobiernos y corporaciones) probablemente experimentaría el mundo y tomaría decisiones de una manera más parecida a un psicópata que a un humano neurotípico. En mi opinión, los psicópatas prosociales existen, pero debido a la dificultad de comunicarse a través de diferentes patrones de pensamiento y el estigma de ser identificado con cualquier forma de “trastorno de personalidad”, son poco conocidos y las condiciones que los conducen a ser “perros pastores” protectores. en lugar de los “lobos” depredadores no se han explorado casi tan bien como las condiciones para el desarrollo emocional saludable de las personas neurotípicas. Esto es lamentable, porque aparte del valor en la comprensión de los humanos que pueden tener un impacto desproporcionado en las personas que los rodean, esta es un área que probablemente sería útil para los psicólogos robot (para tomar prestado un término de Asimov) que finalmente marcarían la diferencia entre un poderoso AGI que se convierte en nuestro amigo y protector y que se convierte en “Gran Hermano” o un monstruo genocida como Skynet en las historias de Terminator. Un sistema programado de reglas como las leyes de Asimov no es probable que se apliquen aquí. Tal vez la suposición de que una inteligencia mecánica no es emocional es falsa, pero si es realmente una inteligencia de “nivel de singularidad”, también podría reprogramarse o incluso cambiar su hardware para evitar los impulsos emocionales inconvenientes al igual que algunas personas toman drogas para aburrir miedo, dolor o culpa. Asumir que no hará cosas malas porque tiene una aversión a tales actos o sus resultados programados me parece una mala idea.
  • Una comprensión de dónde encajamos en la imagen, con AGI amenazando con hacer que los humanos sean tan relevantes como los caballos después de la adopción generalizada del automóvil. ¿Dejamos de lado nuestras identidades basadas en la ocupación y buscamos pura recreación y autoexpresión mientras los “dioses” de silicio y metal creados en nuestra imagen se ocupan de nuestras necesidades materiales y de gobierno? ¿Nos convertimos en partes integradas de la inteligencia de la singularidad? Si es así, ¿mantenemos nuestras identidades individuales? ¿Resistimos o circunscribimos su adopción a través de la legislación y la presión social, haciendo de nuestras máquinas inteligentes una clase de esclavos o colocando letreros de “los robots no necesitan aplicar” para proteger los medios de vida de los nuestros. Escribiría esto como un pensamiento salvaje de ciencia ficción, excepto que algunas de estas preguntas son relevantes incluso con una inteligencia artificial limitada (mire la parte de la fuerza laboral amenazada por automóviles autónomos, procesamiento de lenguaje natural y robots industriales / de almacén solos). )

Es un problema emocionante. Pero uno desalentador tanto tecnológicamente como en términos de sus implicaciones éticas y prácticas. Al igual que la búsqueda para aprovechar el poder del átomo, de alguna manera, excepto que esta vez lo que estamos construyendo no es aterrador (sino controlado por los humanos y, en última instancia, ya no se usa, excepto como una amenaza) arma, sino algo que bien podría permear gran parte de nuestra existencia cotidiana.

Más a corto plazo, lo que espero es una gran cantidad de sistemas semiinteligentes para operar la infraestructura existente (semáforos, redes eléctricas, etc.), proporcionar funciones de conveniencia (el mercado IOT doméstico) y realizar inteligencia y vigilancia militar. A diferencia de un sistema AGI de nivel humano o sobrehumano, estos sistemas tendrán un gran valor práctico pero no incorporarán el peligro de tener tales “objetivos” abiertos como un sistema AGI. Sin embargo, serán un buen adelanto de cómo las personas reaccionan y se adaptan a la presencia de un mundo donde las cosas a su alrededor están constantemente “aprendiendo” y donde las computadoras se están moviendo aún más para asumir roles que una vez estuvieron reservados para los humanos.

Hasta cierto punto, siempre que esté modelando procesos biológicos.

Sabemos que una sola neurona tiene entradas X, salidas Y y puede (en cualquier instante) verse como una puerta lógica con una tabla de verdad.

Sabemos (porque podemos monitorear las señales) cómo se ven las señales, y las correlacionamos crudamente con una entrada o salida dada. Lo suficientemente bueno como para que un chimpancé de laboratorio pueda ver a través de una cámara de video como un tercer ojo y tener un brazo robótico como tercer brazo. Es muy primitivo, pero funciona. Eso es importante, porque significa que podemos tener una idea de cuán sofisticada es una tabla de verdad de la que estamos hablando.

Sabemos que los neurotransmisores alteran la señal entre las neuronas para amortiguar o intensificar las conexiones a nivel regional. Estamos mejorando en comprender eso, pero si realmente entendiéramos esto completamente, la porción de medicamentos del tratamiento psiquiátrico sería una receta personalizada mezclada en una farmacia compuesta basada en una prueba de ADN y un escáner cerebral. No habría errores ni efectos secundarios porque todo podría calcularse.

Sabemos que la topología del cerebro no es trivial. Hay sinapsis de tres puntas, por ejemplo. El mero hecho de que existan muestra que las neuronas no pueden simplemente emitir la misma señal en las sinapsis de salida, porque no habría diferencia. Los sistemas biológicos no mantienen costosos mecanismos innecesarios por mucho tiempo, evolucionan rápidamente. Una sinapsis de tres puntas le dice que cada salida debe considerarse como potencialmente única durante la vida de la neurona.

Sabemos que cada neurona tiene un genoma único. El ADN está realmente reorganizado, los genes tienen diferentes relaciones entre sí y eso cambia varias veces a lo largo de la vida de la neurona. Esto va mucho más allá de la epigenética, las cosas no solo se activan y desactivan, estamos hablando de cambios genéticos subyacentes tan complejos que se pueden medir con secuenciadores de ADN.

Tenga en cuenta que para secuenciar el ADN, debe dividirlo en pequeños fragmentos que no contienen números de parte o números de serie. También tenga en cuenta que el ADN muta de forma natural, por lo que no puede simplemente buscar desajustes. Eso no se considera un cambio fundamental en el genoma. Un cambio fundamental implica que no se pueden juntar las piezas en un orden cercano al mismo, que este es el caso de dos neuronas en cualquier persona, cuando se considera un número estadísticamente significativo de personas.

Este estudio en particular se ha repetido dos veces con los mismos resultados, por lo que podemos ignorar los errores experimentales o los datos falsos.

No tenemos idea de lo que significan los cambios en el ADN para la neurona, pero debido a que cambia las interacciones genéticas, parece razonable concluir que cambia la tabla de verdad y los retrasos en la propagación.

Esto se suma a los cambios causados ​​por la neurogénesis (el nacimiento de nuevas neuronas por las células madre) y la adición, poda o reemplazo de sinapsis.

Las sinapsis tienen marcadores de proteínas unidos después de que se hayan formado. La función no está clara, pero supongo que identifica la ruta (para fines de reemplazo) y modifica las señales.

Además de todo esto, el microbioma (bacterias intestinales, bacterias de la boca, etc.) envía señales al cerebro, al igual que muchos órganos del cuerpo. Algunos son eléctricos, a través del sistema nervioso central, y otros son químicos. No todas las funciones son conocidas.

Algo de esto puede ser simulado. Los programas NEURON y GENESIS apoyan algunos de estos comportamientos, pero no todos. Esta es la razón por la cual ningún simulador neuronal puede imitar un sistema natural correctamente, incluso para tan solo seis neuronas. Los modificadores que no están incluidos son demasiado importantes para ser ignorados.

El otro problema es el hardware necesario. La supercomputadora más grande del mundo (en la lista Top500) solo podía simular una pequeña fracción del cerebro humano. Si reemplazara cada procesador con uno que codificara la simulación de neuronas en el hardware y no hiciera nada más, necesitaría una computadora con diez veces más procesadores que la máquina más grande actual.

Los retrasos de propagación en dicho dispositivo serían lo suficientemente pequeños como para tener proporciones de Singularidad. El costo de una planta de fabricación de silicio es alto pero está al alcance de cientos de miles de personas. Todos los cambios en el algoritmo podrían realizarse para 2020, si el presupuesto de investigación lo permitiera. No hay nada que el hardware científico moderno encuentre imposible de examinar y estoy seguro de que los neurólogos, bioquímicos, analistas de señales y tecnofreaks podrían producir el modelo necesario.

¿Podríamos reducir ese modelo a algo más compacto, dado que el cerebro no necesita ser del tamaño de un complejo de viviendas, alimentado por la electricidad de una pequeña nación? En ninguna parte cerca de ese punto.

Sin embargo, los números no se ven en mal estado. Cien mil personas podrían construir uno o más cerebros electrónicos con una IA fuerte (a diferencia de la IA débil de la que generalmente se habla en estos días que realmente no califica como inteligencia) en los próximos tres años, si realmente quisieran .

Para 2025–2030, debería ser posible transferir el cerebro de una persona a una computadora. Quizás incluso conecte WiMax, para que la computadora pueda operar el cuerpo de forma remota y acceder a los sentidos. Pero eso requeriría la fuerte inversión de esos cien mil superiores. Si todas esas personas invirtieran la mitad de su dinero en esto, incluida la construcción de las plantas de fabricación, los departamentos de investigación, etc., necesarios, se les podría garantizar la inmortalidad electrónica para 2030.

Lo que no se puede garantizar, porque no sabemos lo suficiente como para hacer las preguntas correctas, es una forma de hacerlo que te deja con la misma libertad. Nivel de sofisticación de la historia corta original de Asimov Bicentennial Man, o equivalencia de R. Daneel. No sabemos nada sobre el software o hardware requerido para ese nivel de intercambiabilidad, solo estamos en el punto en que conocemos la lista de compras de partes para equivalencia funcional.

Creo que todos estamos atascados en la definición del término AI. El canal Documentos de dos minutos en youtube, hizo un buen punto. Tendemos a describir solo los avances más recientes como IA.

En aquellos días, el algoritmo A * se llamaba “AI”. Hoy en día no lo llamamos AI. Es un algoritmo

Para tener una arquitectura o receta para la IA. Deberíamos saber primero. ¿Una IA requiere conciencia? Si es así, ¿qué hace que algo sea consciente?

¿Me encanta saber lo que otros piensan sobre eso?

Respuesta corta: no. No es una IA de nivel de singularidad funcional, ni siquiera la IA en sí. Sistemas basados ​​en el conocimiento, sí, IA, no. Probablemente (ni siquiera definitivamente), algún día.