|
| ||||
Inteligencia artificial:
El campo de la investigación en IA se fundó en una conferencia en el Dartmouth College en 1956. Los asistentes, entre ellos John McCarthy, Marvin Minsky, Allen Newell, Arthur Samuel y Herbert Simon, se convirtieron en los líderes de la investigación en IA. Ellos y sus estudiantes escribieron programas que asombraron a la mayoría de la gente: las computadoras ganaban a las damas, resolvían problemas de álgebra, demostraban teoremas lógicos y hablaban inglés. A mediados de la década de 1960, la investigación en Estados Unidos contaba con una importante financiación del Departamento de Defensa y se habían establecido laboratorios en todo el mundo. Los fundadores de la IA eran optimistas sobre el futuro: Herbert Simon predijo: «En veinte años, las máquinas serán capaces de realizar cualquier trabajo que un ser humano pueda hacer». Marvin Minsky coincidió al escribir: «En una generación... el problema de crear 'inteligencia artificial' estará prácticamente resuelto».
No reconocieron la dificultad de algunas de las tareas pendientes. El progreso se ralentizó y, en 1974, en respuesta a las críticas de Sir James Lighthill y a la constante presión del Congreso estadounidense para financiar proyectos más productivos, tanto el gobierno estadounidense como el británico suspendieron la investigación exploratoria en IA. Los años siguientes se denominarían el «invierno de la IA», un período en el que era difícil encontrar financiación para proyectos de IA.
A principios de la década de 1980, la investigación en IA revivió gracias al éxito comercial de los sistemas expertos, un tipo de programa de IA que simulaba el conocimiento y las habilidades analíticas de expertos humanos. Para 1985, el mercado de la IA había superado los mil millones de dólares. Al mismo tiempo, el proyecto informático de quinta generación de Japón inspiró a los gobiernos de Estados Unidos y el Reino Unido a restablecer la financiación de la investigación académica. Sin embargo, tras el colapso del mercado de las máquinas Lisp en 1987, la IA volvió a caer en descrédito, dando lugar a una segunda pausa más prolongada.
A finales de la década de 1990 y principios del siglo XXI, la IA comenzó a utilizarse en logística, minería de datos, diagnóstico médico y otras áreas. El éxito se debió al aumento de la potencia computacional (véase la Ley de Moore), un mayor énfasis en la resolución de problemas específicos, nuevos vínculos entre la IA y otros campos, y el compromiso de los investigadores con los métodos matemáticos y los estándares científicos. Deep Blue se convirtió en el primer sistema informático de ajedrez en vencer al entonces campeón mundial, Garry Kasparov, el 11 de mayo de 1997.
Las técnicas estadísticas avanzadas (vagamente conocidas como aprendizaje profundo), el acceso a grandes cantidades de datos y computadoras más rápidas permitieron avances en el aprendizaje automático y la percepción. A mediados de la década de 2010, las aplicaciones de aprendizaje automático se utilizaban en todo el mundo. En un partido de exhibición del concurso Jeopardy!, el sistema de respuesta a preguntas de IBM, Watson, derrotó a los dos más grandes campeones de Jeopardy, Brad Rutter y Ken Jennings, por un margen significativo. Kinect, que proporciona una interfaz de movimiento corporal en 3D para Xbox 360 y Xbox One, utiliza algoritmos que surgieron de una larga investigación en IA, al igual que los asistentes personales inteligentes en los teléfonos inteligentes. En marzo de 2016, AlphaGo ganó 4 de 5 juegos de Go en un partido con el campeón de Go Lee Sedol, convirtiéndose en el primer sistema de juego de Go por computadora en vencer a un jugador profesional de Go sin handicaps.
Según Jack Clark, de Bloomberg, 2015 fue un año clave para la inteligencia artificial, ya que el número de proyectos de software que utilizan IA en Google aumentó de un uso esporádico en 2012 a más de 2700. Clark también presenta datos que indican que las tasas de error en las tareas de procesamiento de imágenes han disminuido significativamente desde 2011. Atribuye esto al aumento de las redes neuronales asequibles, gracias al auge de la infraestructura de computación en la nube y al incremento de las herramientas de investigación y los conjuntos de datos. Otros ejemplos citados incluyen el desarrollo por parte de Microsoft de un sistema de Skype que puede traducir automáticamente de un idioma a otro y el sistema de Facebook que puede describir imágenes a personas ciegas.
Objetivos
El objetivo general de la investigación en inteligencia artificial es crear tecnología que permita a las computadoras y máquinas funcionar de forma inteligente. El problema general de simular (o crear) inteligencia se ha dividido en subproblemas. Estos consisten en rasgos o capacidades particulares que los investigadores esperan que muestre un sistema inteligente. Los rasgos que se describen a continuación han recibido la mayor atención.
Erik Sandwell enfatiza la planificación y el aprendizaje que sea relevante y aplicable a la situación dada.
Razonamiento, resolución de problemas
Los primeros investigadores desarrollaron algoritmos que imitaban el razonamiento paso a paso que los humanos utilizan al resolver acertijos o hacer deducciones lógicas (razonar). A finales de los años 80 y 90, la investigación en IA había desarrollado métodos para gestionar información incierta o incompleta, empleando conceptos de probabilidad y economía .
Para problemas complejos, los algoritmos pueden requerir enormes recursos computacionales; la mayoría experimenta una " explosión combinatoria ": la cantidad de memoria o tiempo de computación requerido se vuelve astronómica para problemas de cierta envergadura. La búsqueda de algoritmos de resolución de problemas más eficientes es una prioridad.
Los seres humanos suelen utilizar juicios rápidos e intuitivos en lugar de la deducción paso a paso que las primeras investigaciones en IA lograron modelar. La IA ha avanzado mediante la resolución de problemas "subsimbólica": los enfoques de agentes encarnados enfatizan la importancia de las habilidades sensoriomotoras para el razonamiento superior; la investigación en redes neuronales intenta simular las estructuras cerebrales que dan lugar a esta habilidad; los enfoques estadísticos de la IA imitan la capacidad humana.
Representación del conocimiento
La representación y la ingeniería del conocimiento son fundamentales para la investigación en IA. Muchos de los problemas que se espera que resuelvan las máquinas requerirán un amplio conocimiento del mundo. Entre los elementos que la IA necesita representar se encuentran: objetos, propiedades, categorías y relaciones entre objetos; situaciones, eventos, estados y tiempo; causas y efectos; conocimiento sobre el conocimiento (lo que sabemos sobre lo que saben otras personas); y muchos otros dominios menos investigados. Una representación de "lo que existe" es una ontología: el conjunto de objetos, relaciones, conceptos, etc., que la máquina conoce. Las más generales se denominan ontologías superiores, que intentan sentar las bases de todo el resto del conocimiento.
Entre los problemas más difíciles en la representación del conocimiento están:
El razonamiento por defecto y el problema de la calificación
Muchas de las cosas que la gente sabe se presentan como "suposiciones prácticas". Por ejemplo, si se menciona un pájaro en una conversación, la gente suele imaginar un animal del tamaño de un puño, que canta y vuela. Ninguna de estas cosas se aplica a todas las aves. John McCarthy identificó este problema en 1969 como el problema de calificación: para cualquier regla de sentido común que los investigadores de IA se esfuercen por representar, suele haber un gran número de excepciones. Casi nada es simplemente verdadero o falso según lo exige la lógica abstracta. La investigación en IA ha explorado diversas soluciones a este problema.
La amplitud del conocimiento del sentido común
La cantidad de datos atómicos que conoce una persona promedio es enorme. Los proyectos de investigación que intentan construir una base de conocimiento completa basada en el sentido común (p. ej., Cyc) requieren una enorme cantidad de ingeniería ontológica laboriosa: deben construirse manualmente, concepto complejo a concepto. Un objetivo principal es que la computadora comprenda suficientes conceptos para poder aprender leyendo fuentes como internet y, así, contribuir a su propia ontología.
La forma subsimbólica de algún conocimiento de sentido común
Gran parte de lo que la gente sabe no se representa como "hechos" o "declaraciones" que puedan expresar verbalmente. Por ejemplo, un maestro de ajedrez evitará una posición específica porque la siente demasiado expuesta, o un crítico de arte puede observar una estatua y darse cuenta de que es falsa. Estas son intuiciones o tendencias que se representan en el cerebro de forma inconsciente y subsimbólica. Este tipo de conocimiento informa, respalda y proporciona un contexto para el conocimiento simbólico y consciente. Al igual que con el problema relacionado del razonamiento subsimbólico, se espera que la IA situada, la inteligencia computacional o la IA estadística proporcionen formas de representar este tipo de conocimiento.
Planificación
Los agentes inteligentes deben ser capaces de establecer objetivos y alcanzarlos. Necesitan una forma de visualizar el futuro (deben tener una representación del estado del mundo y ser capaces de predecir cómo sus acciones lo cambiarán) y de tomar decisiones que maximicen la utilidad (o el «valor») de las opciones disponibles.
En los problemas de planificación clásicos, el agente puede asumir que es el único que actúa en el mundo y puede estar seguro de las consecuencias de sus acciones. Sin embargo, si no es el único actor, debe verificar periódicamente si el mundo coincide con sus predicciones y modificar su plan cuando sea necesario, lo que le exige razonar bajo incertidumbre.
La planificación multiagente utiliza la cooperación y la competencia entre numerosos agentes para lograr un objetivo determinado. Este tipo de comportamiento emergente es utilizado por algoritmos evolutivos e inteligencia de enjambre.
Aprendiendo
El aprendizaje automático es el estudio de algoritmos informáticos que mejoran automáticamente a través de la experiencia y ha sido fundamental para la investigación de IA desde el inicio del campo.
El aprendizaje no supervisado es la capacidad de encontrar patrones en un flujo de entrada. El aprendizaje supervisado incluye tanto la clasificación como la regresión numérica. La clasificación se utiliza para determinar a qué categoría pertenece algo, después de ver una serie de ejemplos de cosas de varias categorías. La regresión es el intento de producir una función que describa la relación entre las entradas y las salidas y prediga cómo deberían cambiar las salidas a medida que cambian las entradas. En el aprendizaje de refuerzo, el agente es recompensado por las buenas respuestas y castigado por las malas. El agente utiliza esta secuencia de recompensas y castigos para formar una estrategia para operar en su espacio de problemas. Estos tres tipos de aprendizaje pueden analizarse en términos de la teoría de la decisión, utilizando conceptos como la utilidad. El análisis matemático de los algoritmos de aprendizaje automático y su rendimiento es una rama de la informática teórica conocida como teoría del aprendizaje computacional.
Dentro de la robótica del desarrollo, se elaboraron enfoques de aprendizaje del desarrollo para la adquisición acumulativa a lo largo de la vida de repertorios de habilidades novedosas por parte de un robot, a través de la autoexploración autónoma y la interacción social con maestros humanos, y utilizando mecanismos de orientación como el aprendizaje activo, la maduración, las sinergias motoras y la imitación.
Procesamiento del lenguaje natural
El procesamiento del lenguaje natural otorga a las máquinas la capacidad de leer y comprender los idiomas que hablan los humanos. Un sistema de procesamiento del lenguaje natural suficientemente potente permitiría interfaces de usuario en lenguaje natural y la adquisición de conocimiento directamente de fuentes escritas por humanos, como textos de noticias. Algunas aplicaciones sencillas del procesamiento del lenguaje natural incluyen la recuperación de información, la minería de textos, la respuesta a preguntas y la traducción automática.
Un método común para procesar y extraer significado del lenguaje natural es la indexación semántica. El aumento de la velocidad de procesamiento y la reducción del coste del almacenamiento de datos hacen que la indexación de grandes volúmenes de abstracciones de la entrada del usuario sea mucho más eficiente.
Percepción
La percepción artificial es la capacidad de utilizar la información de sensores (como cámaras, micrófonos, sensores táctiles, sonares y otros más sofisticados) para deducir aspectos del mundo. La visión artificial es la capacidad de analizar la información visual. Algunos subproblemas seleccionados son el reconocimiento de voz, el reconocimiento facial y el reconocimiento de objetos.
Movimiento y manipulación
El campo de la robótica está estrechamente relacionado con la IA. Los robots necesitan inteligencia para realizar tareas como la manipulación y navegación de objetos, con subproblemas de localización (saber dónde se encuentra o descubrir dónde están otras cosas), mapeo (aprender lo que hay a su alrededor, construir un mapa del entorno) y planificación de movimiento (descubrir cómo llegar) o planificación de trayectoria (ir de un punto a otro en el espacio, lo que puede implicar movimiento complaciente, donde el robot se mueve manteniendo contacto físico con un objeto).
Inteligencia social
La computación afectiva es el estudio y desarrollo de sistemas y dispositivos capaces de reconocer, interpretar, procesar y simular los afectos humanos. Es un campo interdisciplinario que abarca las ciencias de la computación, la psicología y la ciencia cognitiva. Si bien sus orígenes se remontan a las primeras investigaciones filosóficas sobre las emociones, la rama más moderna de la informática se originó con el artículo de Rosalind Picard de 1995 sobre computación afectiva. Una motivación para la investigación es la capacidad de simular la empatía. La máquina debe interpretar el estado emocional de los humanos y adaptar su comportamiento a él, dando una respuesta adecuada a dichas emociones.
Las emociones y las habilidades sociales desempeñan dos funciones para un agente inteligente. En primer lugar, debe ser capaz de predecir las acciones de los demás, comprendiendo sus motivos y estados emocionales. (Esto implica elementos de la teoría de juegos, la teoría de decisiones, así como la capacidad de modelar las emociones humanas y las habilidades perceptivas para detectarlas). Además, para facilitar la interacción persona-computadora, una máquina inteligente podría querer ser capaz de mostrar emociones, incluso si no las experimenta, para parecer sensible a la dinámica emocional de la interacción humana.
Creatividad
Un subcampo de la IA aborda la creatividad tanto teóricamente (desde una perspectiva filosófica y psicológica) como prácticamente (mediante implementaciones específicas de sistemas que generan resultados que pueden considerarse creativos, o sistemas que identifican y evalúan la creatividad). Áreas relacionadas de la investigación computacional son la intuición artificial y el pensamiento artificial.
Inteligencia general
Muchos investigadores creen que su trabajo eventualmente se incorporará a una máquina con inteligencia artificial general, combinando todas las habilidades mencionadas y superando las capacidades humanas en la mayoría o en su totalidad. Algunos creen que características antropomórficas como la conciencia artificial o un cerebro artificial podrían ser necesarias para un proyecto de este tipo.
Muchos de los problemas mencionados anteriormente pueden requerir inteligencia general para considerarse resueltos. Por ejemplo, incluso una tarea sencilla y específica como la traducción automática requiere que la máquina lea y escriba en ambos idiomas (PLN), siga el argumento del autor (razón), comprenda de qué se habla (conocimiento) y reproduzca fielmente la intención del autor (inteligencia social). Un problema como la traducción automática se considera "completo para IA". Para que las máquinas alcancen un rendimiento similar al humano, es necesario resolver todos los problemas.
Aproches
No existe una teoría o paradigma unificador establecido que guíe la investigación en IA. Los investigadores discrepan en muchos temas. Algunas de las preguntas más antiguas que han permanecido sin respuesta son: ¿debería la inteligencia artificial simular la inteligencia natural mediante el estudio de la psicología o la neurología? ¿O es la biología humana tan irrelevante para la investigación en IA como lo es la biología aviar para la ingeniería aeronáutica? ¿Se puede describir el comportamiento inteligente mediante principios simples y elegantes (como la lógica o la optimización)? ¿O requiere necesariamente resolver una gran cantidad de problemas completamente inconexos? ¿Se puede reproducir la inteligencia mediante símbolos de alto nivel, similares a las palabras y las ideas? ¿O requiere un procesamiento "subsimbólico"? John Haugeland, quien acuñó el término GOFAI (Inteligencia Artificial Tradicional), también propuso que la IA debería denominarse inteligencia sintética, un término que desde entonces ha sido adoptado por algunos investigadores no especializados en GOFAI.
Stuart Shapiro divide la investigación de la IA en tres enfoques, que denomina psicología computacional, filosofía computacional y ciencias de la computación. La psicología computacional se utiliza para crear programas informáticos que imitan el comportamiento humano. La filosofía computacional se utiliza para desarrollar una mente informática adaptativa y de libre flujo. La implementación de las ciencias de la computación persigue el objetivo de crear computadoras capaces de realizar tareas que antes solo podían realizar las personas. En conjunto, el comportamiento, la mente y las acciones humanoides conforman la inteligencia artificial.
Cibernética y simulación cerebral
En las décadas de 1940 y 1950, varios investigadores exploraron la conexión entre la neurología, la teoría de la información y la cibernética. Algunos construyeron máquinas que utilizaban redes electrónicas para exhibir inteligencia rudimentaria, como las tortugas de W. Grey Walter y la Bestia de Johns Hopkins. Muchos de estos investigadores se reunieron en las reuniones de la Sociedad Teleológica de la Universidad de Princeton y del Ratio Club en Inglaterra. Para 1960, este enfoque se había abandonado en gran medida, aunque algunos elementos se recuperarían en la década de 1980.
Simbólico
Cuando el acceso a las computadoras digitales se hizo posible a mediados de la década de 1950, la investigación en IA comenzó a explorar la posibilidad de que la inteligencia humana pudiera reducirse a la manipulación de símbolos. La investigación se centró en tres instituciones: la Universidad Carnegie Mellon, Stanford y el MIT, y cada una desarrolló su propio estilo de investigación. John Haugeland denominó estos enfoques de IA "buena IA tradicional" o "GOFAI". Durante la década de 1960, los enfoques simbólicos lograron un gran éxito en la simulación del pensamiento de alto nivel en pequeños programas de demostración. Los enfoques basados en la cibernética o las redes neuronales fueron abandonados o relegados a un segundo plano. Los investigadores de las décadas de 1960 y 1970 estaban convencidos de que los enfoques simbólicos eventualmente lograrían crear una máquina con inteligencia artificial general y consideraron este el objetivo de su campo.
Simulación cognitiva
El economista Herbert Simon y Allen Newell estudiaron las habilidades humanas para la resolución de problemas e intentaron formalizarlas. Su trabajo sentó las bases del campo de la inteligencia artificial, así como de la ciencia cognitiva, la investigación operativa y la ciencia de la gestión. Su equipo de investigación utilizó los resultados de experimentos psicológicos para desarrollar programas que simulaban las técnicas que las personas utilizaban para resolver problemas. Esta tradición, centrada en la Universidad Carnegie Mellon, culminaría con el desarrollo de la arquitectura Soar a mediados de la década de 1980.
Basado en la lógica
A diferencia de Newell y Simon, John McCarthy creía que las máquinas no necesitaban simular el pensamiento humano, sino que debían intentar descubrir la esencia del razonamiento abstracto y la resolución de problemas, independientemente de si las personas usaban los mismos algoritmos. Su laboratorio en Stanford (SAIL) se centró en el uso de la lógica formal para resolver una amplia variedad de problemas, como la representación del conocimiento, la planificación y el aprendizaje. La lógica también fue el foco de trabajo en la Universidad de Edimburgo y en otros lugares de Europa, lo que condujo al desarrollo del lenguaje de programación Prolog y la ciencia de la programación lógica.
"Anti-lógica" o "desaliñada"
Investigadores del MIT (como Marvin Minsky y Seymour Papert) descubrieron que resolver problemas complejos de visión y procesamiento del lenguaje natural requería soluciones ad hoc. Argumentaban que no existía un principio simple y general (como la lógica) que abarcara todos los aspectos del comportamiento inteligente. Roger Schank describió sus enfoques "antilógicos" como "descuidados" (a diferencia de los paradigmas "pulcros" de la CMU y Stanford). Las bases de conocimiento de sentido común (como Cyc de Doug Lenat) son un ejemplo de IA "descuidada", ya que deben construirse manualmente, un concepto complejo a la vez.
Basado en el conocimiento
Cuando las computadoras con memoria de gran capacidad estuvieron disponibles alrededor de 1970, investigadores de las tres tradiciones comenzaron a incorporar conocimiento en aplicaciones de IA. Esta "revolución del conocimiento" condujo al desarrollo e implementación de sistemas expertos (introducidos por Edward Feigenbaum), el primer software de IA verdaderamente exitoso. La revolución del conocimiento también estuvo impulsada por la comprensión de que muchas aplicaciones sencillas de IA requerirían enormes cantidades de conocimiento.
Subsimbólico
Para la década de 1980, el progreso en IA simbólica parecía estancado y muchos creían que los sistemas simbólicos nunca podrían imitar todos los procesos de la cognición humana, especialmente la percepción, la robótica, el aprendizaje y el reconocimiento de patrones. Varios investigadores comenzaron a explorar enfoques "subsimbólicos" para problemas específicos de IA. Los métodos subsimbólicos logran abordar la inteligencia sin representaciones específicas del conocimiento.
IA de abajo hacia arriba, encarnada, situada, basada en el comportamiento o nueva
Investigadores del campo relacionado de la robótica, como Rodney Brooks, rechazaron la IA simbólica y se centraron en los problemas básicos de ingeniería que permitirían a los robots moverse y sobrevivir. Su trabajo revivió la perspectiva no simbólica de los primeros investigadores en cibernética de la década de 1950 y reintrodujo el uso de la teoría del control en la IA. Esto coincidió con el desarrollo de la tesis de la mente encarnada en el campo relacionado de la ciencia cognitiva: la idea de que aspectos del cuerpo (como el movimiento, la percepción y la visualización) son necesarios para una inteligencia superior.
Inteligencia computacional y computación blanda
El interés en las redes neuronales y el conexionismo fue revivido por David Rumelhart y otros a mediados de la década de 1980. Las redes neuronales son un ejemplo de computación blanda: son soluciones a problemas que no pueden resolverse con total certeza lógica, y donde una solución aproximada suele ser suficiente. Otros enfoques de computación blanda para la IA incluyen los sistemas difusos, la computación evolutiva y numerosas herramientas estadísticas. La aplicación de la computación blanda a la IA se estudia colectivamente en la disciplina emergente de la inteligencia computacional.
Estadístico
En la década de 1990, los investigadores de IA desarrollaron sofisticadas herramientas matemáticas para resolver subproblemas específicos. Estas herramientas son verdaderamente científicas, en el sentido de que sus resultados son medibles y verificables, y han sido responsables de muchos de los éxitos recientes de la IA. El lenguaje matemático compartido también ha permitido un alto nivel de colaboración con campos más consolidados (como las matemáticas, la economía o la investigación operativa). Stuart Russell y Peter Norvig describen este movimiento como nada menos que una "revolución" y "la victoria de los ordenados". Los críticos argumentan que estas técnicas (con pocas excepciones) se centran demasiado en problemas específicos y no han logrado abordar el objetivo a largo plazo de la inteligencia general. Existe un debate en curso sobre la relevancia y la validez de los enfoques estadísticos en IA, ejemplificado en parte por los intercambios entre Peter Norvig y Noam Chomsky .
Integrando los enfoques
Paradigma del agente inteligente
Un agente inteligente es un sistema que percibe su entorno y realiza acciones que maximizan sus posibilidades de éxito. Los agentes inteligentes más simples son programas que resuelven problemas específicos. Los agentes más complejos incluyen a los seres humanos y a las organizaciones de seres humanos (como las empresas). El paradigma otorga a los investigadores la facultad de estudiar problemas aislados y encontrar soluciones verificables y útiles, sin consensuar un único enfoque. Un agente que resuelve un problema específico puede utilizar cualquier enfoque que funcione: algunos agentes son simbólicos y lógicos, otros son redes neuronales subsimbólicas y otros pueden utilizar nuevos enfoques. El paradigma también proporciona a los investigadores un lenguaje común para comunicarse con otros campos, como la teoría de la decisión y la economía, que también utilizan conceptos de agentes abstractos. El paradigma del agente inteligente se generalizó durante la década de 1990.
Arquitecturas de agentes y arquitecturas cognitivas
Los investigadores han diseñado sistemas para construir sistemas inteligentes a partir de agentes inteligentes que interactúan en un sistema multiagente. Un sistema con componentes simbólicos y subsimbólicos es un sistema inteligente híbrido, y el estudio de estos sistemas se conoce como integración de sistemas de inteligencia artificial (IA). Un sistema de control jerárquico proporciona un puente entre la IA subsimbólica en sus niveles más bajos y reactivos y la IA simbólica tradicional en sus niveles más altos, donde las restricciones temporales flexibles permiten la planificación y el modelado del mundo. La arquitectura de subsunción de Rodney Brooks fue una de las primeras propuestas para este tipo de sistema jerárquico.
Herramientas
A lo largo de 50 años de investigación, la IA ha desarrollado un gran número de herramientas para resolver los problemas más complejos de la informática. A continuación, se describen algunos de los métodos más generales.
Búsqueda y optimización
Muchos problemas en IA pueden resolverse teóricamente mediante la búsqueda inteligente de diversas soluciones posibles: el razonamiento puede reducirse a una búsqueda. Por ejemplo, la demostración lógica puede concebirse como la búsqueda de un camino que lleve de las premisas a las conclusiones, donde cada paso es la aplicación de una regla de inferencia. Los algoritmos de planificación buscan en árboles de objetivos y subobjetivos, intentando encontrar un camino hacia un objetivo, un proceso denominado análisis de medios y fines. Los algoritmos robóticos para mover extremidades y sujetar objetos utilizan búsquedas locales en el espacio de configuración. Muchos algoritmos de aprendizaje utilizan algoritmos de búsqueda basados en la optimización.
Las búsquedas exhaustivas simples rara vez son suficientes para la mayoría de los problemas del mundo real: el espacio de búsqueda (el número de lugares a buscar) crece rápidamente hasta alcanzar cifras astronómicas. El resultado es una búsqueda demasiado lenta o incompleta. La solución, para muchos problemas, consiste en utilizar "heurísticas" o "reglas generales" que eliminan las opciones con pocas probabilidades de alcanzar el objetivo (lo que se denomina "poda del árbol de búsqueda"). Las heurísticas proporcionan al programa una "mejor estimación" del camino donde se encuentra la solución. Limitan la búsqueda de soluciones a un tamaño de muestra menor.
Un tipo de búsqueda muy diferente cobró importancia en la década de 1990, basado en la teoría matemática de la optimización. En muchos problemas, es posible comenzar la búsqueda con algún tipo de estimación y luego refinarla gradualmente hasta que no se puedan realizar más refinamientos. Estos algoritmos pueden visualizarse como una escalada a ciegas: comenzamos la búsqueda en un punto aleatorio del paisaje y luego, mediante saltos o pasos, seguimos ascendiendo nuestra estimación hasta llegar a la cima. Otros algoritmos de optimización son el recocido simulado, la búsqueda de haz y la optimización aleatoria.
La computación evolutiva utiliza una forma de búsqueda de optimización. Por ejemplo, puede comenzar con una población de organismos (las suposiciones) y luego permitirles mutar y recombinarse, seleccionando solo a los más aptos para sobrevivir en cada generación (refinando las suposiciones). Las formas de computación evolutiva incluyen algoritmos de inteligencia de enjambre (como la optimización de colonias de hormigas o de enjambre de partículas) y algoritmos evolutivos (como los algoritmos genéticos, la programación de la expresión génica y la programación genética).
Lógica
La lógica se utiliza para la representación del conocimiento y la resolución de problemas, pero también puede aplicarse a otros problemas. Por ejemplo, el algoritmo satplan utiliza la lógica para la planificación, y la programación lógica inductiva es un método de aprendizaje.
En la investigación de IA se utilizan varias formas diferentes de lógica. La lógica proposicional o sentencial es la lógica de enunciados que pueden ser verdaderos o falsos. La lógica de primer orden también permite el uso de cuantificadores y predicados, y puede expresar hechos sobre objetos, sus propiedades y sus relaciones entre sí. La lógica difusa es una versión de la lógica de primer orden que permite representar la verdad de un enunciado como un valor entre 0 y 1, en lugar de simplemente Verdadero (1) o Falso (0). Los sistemas difusos se pueden utilizar para el razonamiento incierto y se han utilizado ampliamente en los sistemas modernos de control de productos industriales y de consumo. La lógica subjetiva modela la incertidumbre de una manera diferente y más explícita que la lógica difusa: una opinión binomial dada satisface creencia + incredulidad + incertidumbre = 1 dentro de una distribución Beta. Mediante este método, se puede distinguir la ignorancia de los enunciados probabilísticos que un agente hace con alta confianza.
Las lógicas por defecto, las lógicas no monótonas y la circunscripción son formas de lógica diseñadas para facilitar el razonamiento por defecto y el problema de cualificación. Se han diseñado diversas extensiones de la lógica para abordar dominios específicos del conocimiento, como: lógicas descriptivas; cálculo de situaciones, cálculo de eventos y cálculo fluido (para representar eventos y tiempo); cálculo causal; cálculo de creencias; y lógicas modales.
Métodos probabilísticos para el razonamiento incierto
Muchos problemas en IA (razonamiento, planificación, aprendizaje, percepción y robótica) requieren que el agente opere con información incompleta o incierta. Los investigadores de IA han desarrollado diversas herramientas potentes para resolver estos problemas utilizando métodos de la teoría de la probabilidad y la economía.
Las redes bayesianas son una herramienta muy general que puede utilizarse para una gran variedad de problemas: razonamiento (mediante el algoritmo de inferencia bayesiana), aprendizaje (mediante el algoritmo de maximización de expectativas), planificación (mediante redes de decisión) y percepción (mediante redes bayesianas dinámicas). Los algoritmos probabilísticos también pueden emplearse para filtrar, predecir, suavizar y encontrar explicaciones para flujos de datos, lo que ayuda a los sistemas de percepción a analizar procesos que ocurren a lo largo del tiempo (p. ej., modelos ocultos de Markov o filtros de Kalman).
Un concepto clave de la ciencia económica es la "utilidad": una medida del valor de algo para un agente inteligente. Se han desarrollado herramientas matemáticas precisas que analizan cómo un agente puede tomar decisiones y planificar, utilizando la teoría de la decisión, el análisis de decisiones y la teoría del valor de la información. Estas herramientas incluyen modelos como los procesos de decisión de Markov, las redes de decisión dinámicas, la teoría de juegos y el diseño de mecanismos.
Clasificadores y métodos de aprendizaje estadístico
Las aplicaciones de IA más sencillas se pueden dividir en dos tipos: clasificadores ("si es brillante, entonces diamante") y controladores ("si es brillante, entonces recoger"). Sin embargo, los controladores también clasifican las condiciones antes de inferir acciones, por lo que la clasificación es fundamental en muchos sistemas de IA. Los clasificadores son funciones que utilizan la coincidencia de patrones para determinar la coincidencia más cercana. Pueden ajustarse según ejemplos, lo que los hace muy atractivos para su uso en IA. Estos ejemplos se conocen como observaciones o patrones. En el aprendizaje supervisado, cada patrón pertenece a una clase predefinida. Una clase puede considerarse como una decisión que debe tomarse. Todas las observaciones, combinadas con sus etiquetas de clase, se conocen como un conjunto de datos. Cuando se recibe una nueva observación, esta se clasifica en función de la experiencia previa.
Un clasificador se puede entrenar de diversas maneras; existen numerosos enfoques estadísticos y de aprendizaje automático. Los clasificadores más utilizados son las redes neuronales, los métodos kernel como la máquina de vectores de soporte, el algoritmo de k vecinos más cercanos, el modelo de mezcla gaussiana, el clasificador bayesiano ingenuo y el árbol de decisión. El rendimiento de estos clasificadores se ha comparado en una amplia gama de tareas. El rendimiento del clasificador depende en gran medida de las características de los datos a clasificar. No existe un clasificador único que funcione mejor en todos los problemas; esto también se conoce como el teorema de "todo es gratis". Determinar un clasificador adecuado para un problema dado sigue siendo más un arte que una ciencia.
Redes neuronales
El estudio de las redes neuronales artificiales sin aprendizaje comenzó en la década anterior a la fundación del campo de la investigación en IA, con el trabajo de Walter Pitts y Warren McCullouch. Frank Rosenblatt inventó el perceptrón, una red de aprendizaje de una sola capa, similar al antiguo concepto de regresión lineal. Entre los pioneros también se incluyen Alexey Grigorevich Ivakhnenko, Teuvo Kohonen, Stephen Grossberg, Kunihiko Fukushima, Christoph von der Malsburg, David Willshaw, Shun-Ichi Amari, Bernard Widrow, John Hopfield, Eduardo R. Caianiello y otros.
Las principales categorías de redes son las redes neuronales acíclicas o de propagación hacia adelante (donde la señal pasa en una sola dirección) y las redes neuronales recurrentes (que permiten la retroalimentación y la memoria a corto plazo de eventos de entrada previos). Entre las redes de propagación hacia adelante más populares se encuentran los perceptrones, los perceptrones multicapa y las redes de base radial. Las redes neuronales pueden aplicarse al control inteligente (para robótica) o al aprendizaje, utilizando técnicas como el aprendizaje hebbiano, el GMDH o el aprendizaje competitivo.
Hoy en día, las redes neuronales suelen ser entrenadas mediante el algoritmo de retropropagación, que existe desde 1970 como el modo inverso de diferenciación automática publicado por Seppo Linnainmaa, y fue introducido a las redes neuronales por Paul Werbos.
La memoria temporal jerárquica es un enfoque que modela algunas de las propiedades estructurales y algorítmicas del neocórtex .
Redes neuronales de propagación hacia adelante profundas
El aprendizaje profundo en redes neuronales artificiales con muchas capas ha transformado muchos subcampos importantes de la inteligencia artificial, incluida la visión por computadora, el reconocimiento de voz, el procesamiento del lenguaje natural y otros.
Según una encuesta, el término " aprendizaje profundo " fue introducido en la comunidad de aprendizaje automático por Rina Dechter en 1986 y cobró fuerza después de que Igor Aizenberg y sus colegas lo introdujeran en las redes neuronales artificiales en el año 2000. Las primeras redes funcionales de aprendizaje profundo fueron publicadas por Alexey Grigorevich Ivakhnenko y VG Lapa en 1965. Estas redes se entrenan capa por capa. El artículo de Ivakhnenko de 1971 describe el aprendizaje de un perceptrón multicapa de propagación hacia adelante profundo con ocho capas, mucho más profundo que muchas redes posteriores. En 2006, una publicación de Geoffrey Hinton y Ruslan Salakhutdinov introdujo otra forma de preentrenar redes neuronales de propagación hacia adelante (FNN) de múltiples capas, capa por capa, tratando cada capa a su vez como una máquina de Boltzmann restringida no supervisada, y luego utilizando retropropagación supervisada para el ajuste fino. De forma similar a las redes neuronales artificiales superficiales, las redes neuronales profundas pueden modelar relaciones no lineales complejas. En los últimos años, los avances en los algoritmos de aprendizaje automático y en el hardware de las computadoras han llevado a métodos más eficientes para entrenar redes neuronales profundas que contienen muchas capas de unidades ocultas no lineales y una capa de salida muy grande.
El aprendizaje profundo suele utilizar redes neuronales convolucionales (CNN), cuyos orígenes se remontan al Neocognitrón, introducido por Kunihiko Fukushima en 1980. En 1989, Yann LeCun y sus colegas aplicaron la retropropagación a dicha arquitectura. A principios de la década de 2000, en aplicaciones industriales, las CNN ya procesaban entre el 10 % y el 20 % de todos los cheques emitidos en EE. UU. Desde 2011, las implementaciones rápidas de CNN en GPU han ganado numerosos concursos de reconocimiento visual de patrones.
Se utilizaron redes neuronales de propagación profunda junto con el aprendizaje de refuerzo por parte de AlphaGo, el programa de Google Deepmind que fue el primero en vencer a un jugador humano profesional.
Redes neuronales recurrentes profundas
En sus inicios, el aprendizaje profundo también se aplicó al aprendizaje secuencial con redes neuronales recurrentes (RNN), que son computadoras comunes y pueden ejecutar programas arbitrarios para procesar secuencias arbitrarias de entradas. La profundidad de una RNN es ilimitada y depende de la longitud de su secuencia de entrada. Las RNN pueden entrenarse mediante descenso de gradiente, pero sufren el problema del gradiente de desaparición. En 1992, se demostró que el preentrenamiento no supervisado de una pila de redes neuronales recurrentes puede acelerar el aprendizaje supervisado posterior de problemas secuenciales profundos.
Numerosos investigadores utilizan ahora variantes de una red neuronal recurrente de aprendizaje profundo denominada red de memoria a corto y largo plazo (LSTM), publicada por Hochreiter y Schmidhuber en 1997. LSTM suele entrenarse mediante la Clasificación Temporal Conexionista (CTC). En Google, Microsoft y Baidu, este enfoque ha revolucionado el reconocimiento de voz. Por ejemplo, en 2015, el reconocimiento de voz de Google experimentó un drástico aumento del 49 % en su rendimiento gracias a LSTM entrenada con CTC, que ahora está disponible a través de Google Voice para miles de millones de usuarios de teléfonos inteligentes. Google también utilizó LSTM para mejorar la traducción automática, el modelado del lenguaje y el procesamiento del lenguaje multilingüe. LSTM, combinado con CNN, también mejoró el subtitulado automático de imágenes y una gran cantidad de otras aplicaciones.
Teoría del control
La teoría del control, nieta de la cibernética, tiene muchas aplicaciones importantes, especialmente en robótica.
Idiomas
Los investigadores de IA han desarrollado varios lenguajes especializados para la investigación de IA, incluidos Lisp y Prolog .
Evaluación del progreso
En 1950, Alan Turing propuso un procedimiento general para probar la inteligencia de un agente, conocido actualmente como el test de Turing. Este procedimiento permite evaluar casi todos los problemas principales de la inteligencia artificial. Sin embargo, es un reto muy complejo y, actualmente, todos los agentes fallan.
La inteligencia artificial también puede evaluarse mediante problemas específicos, como pequeños problemas de química, reconocimiento de escritura a mano y juegos. Estas pruebas se han denominado pruebas de Turing para expertos en la materia. Los problemas más pequeños ofrecen objetivos más alcanzables y cada vez se obtienen más resultados positivos.
Por ejemplo, el desempeño en las damas es óptimo, el desempeño en ajedrez es altamente humano y casi sobrehumano (ver ajedrez computacional: computadoras versus humanos) y el desempeño en muchas tareas cotidianas (como reconocer una cara o cruzar una habitación sin chocar con algo) es subhumano.
Un enfoque muy diferente mide la inteligencia artificial mediante pruebas desarrolladas a partir de definiciones matemáticas de inteligencia. Ejemplos de este tipo de pruebas se originaron a finales de los noventa, con el desarrollo de pruebas de inteligencia basadas en nociones de la complejidad de Kolmogorov y la compresión de datos. Dos ventajas principales de las definiciones matemáticas son su aplicabilidad a inteligencias no humanas y la ausencia de la necesidad de evaluadores humanos.
Un derivado de la prueba de Turing es la Prueba de Turing Pública Completamente Automatizada para Distinguir Computadoras de Humanos (CAPTCHA). Como su nombre lo indica, ayuda a determinar que un usuario es una persona real y no una computadora que se hace pasar por un humano. A diferencia de la prueba de Turing estándar, el CAPTCHA es administrado por una máquina y dirigido a un humano, en lugar de ser administrado por un humano y dirigido a una máquina. Una computadora le pide al usuario que complete una prueba simple y luego genera una calificación para esa prueba. Las computadoras no pueden resolver el problema, por lo que las soluciones correctas se consideran el resultado de una persona que realiza la prueba. Un tipo común de CAPTCHA es la prueba que requiere la introducción de letras, números o símbolos distorsionados que aparecen en una imagen indescifrable para una computadora.
Aplicaciones
La IA es relevante para cualquier tarea intelectual. Las técnicas modernas de inteligencia artificial son omnipresentes y su número es inmenso para enumerarlas aquí. Con frecuencia, cuando una técnica se generaliza, deja de considerarse inteligencia artificial; este fenómeno se conoce como el efecto IA.
Entre los ejemplos más destacados de IA se incluyen los vehículos autónomos (como los drones y los coches que se conducen solos), el diagnóstico médico, la creación de arte (como la poesía), la demostración de teoremas matemáticos, los juegos (como el ajedrez o el Go), los motores de búsqueda (como Google), los asistentes en línea (como Siri), el reconocimiento de imágenes en fotografías, el filtrado de spam, la predicción de decisiones judiciales y la orientación de los anuncios en línea.
Ahora que los sitios de redes sociales están superando a la televisión como fuente de noticias para los jóvenes y las organizaciones de noticias dependen cada vez más de las plataformas de redes sociales para generar distribución, los principales editores utilizan tecnología de inteligencia artificial (IA) para publicar historias de manera más efectiva y generar mayores volúmenes de tráfico.
Concursos y premios
Existen diversos concursos y premios para promover la investigación en inteligencia artificial. Las principales áreas que se promueven son: inteligencia artificial general, comportamiento conversacional, minería de datos, coches robóticos, fútbol robótico y juegos.
Dando forma a la industria de la salud
La inteligencia artificial está irrumpiendo en la industria de la salud al ayudar a los médicos. Según Bloomberg Technology, Microsoft ha desarrollado IA para ayudar a los médicos a encontrar los tratamientos adecuados contra el cáncer. Existe una gran cantidad de investigación y se están desarrollando medicamentos relacionados con el cáncer. En concreto, existen más de 800 medicamentos y vacunas para tratarlo. Esto afecta negativamente a los médicos, ya que hay demasiadas opciones para elegir, lo que dificulta la elección de los medicamentos adecuados para los pacientes. Microsoft está trabajando en un proyecto para desarrollar una máquina llamada "Hanover". Su objetivo es memorizar todos los documentos necesarios para el cáncer y ayudar a predecir qué combinaciones de medicamentos serán más efectivas para cada paciente. Un proyecto en curso combate la leucemia mieloide, un cáncer mortal cuyo tratamiento no ha mejorado en décadas. Otro estudio reveló que la inteligencia artificial era tan eficaz como los médicos capacitados para identificar cánceres de piel.
Según CNN, un estudio reciente realizado por cirujanos del Centro Médico Pediátrico Nacional de Washington demostró que un cirujano practicaba con éxito la cirugía con un robot, en lugar de un humano. El equipo supervisó a un robot autónomo que realizaba una cirugía de tejidos blandos, cosiendo el intestino de un cerdo durante una cirugía abierta, y lo hizo mejor que un cirujano humano.
Industria automotriz
Los avances en IA han contribuido al crecimiento de la industria automotriz mediante la creación y evolución de vehículos autónomos. En 2016, más de 30 empresas utilizaban IA para la creación de vehículos sin conductor. Algunas de ellas eran Tesla, Google y Apple .
Numerosos componentes contribuyen al funcionamiento de los vehículos autónomos. Estos vehículos incorporan sistemas como frenado, cambio de carril, prevención de colisiones, navegación y cartografía. Juntos, estos sistemas, junto con ordenadores de alto rendimiento, se integran en un vehículo complejo.
Un factor principal que influye en el funcionamiento de un coche autónomo es la cartografía. Generalmente, el vehículo viene preprogramado con un mapa de la zona por la que circula. Este mapa incluye datos aproximados sobre la altura de las luces de la calle y de los bordillos para que el vehículo sea consciente de su entorno. Sin embargo, Google ha estado trabajando en un algoritmo para eliminar la necesidad de mapas preprogramados y, en su lugar, crear un dispositivo capaz de adaptarse a diversos entornos. Algunos coches autónomos no cuentan con volante ni frenos, por lo que se ha investigado para crear un algoritmo capaz de mantener un entorno seguro para los pasajeros del vehículo mediante el conocimiento de la velocidad y las condiciones de conducción.
Plataformas
Una plataforma (o "plataforma informática") se define como "algún tipo de arquitectura de hardware o marco de software (incluidos los marcos de aplicación) que permite la ejecución del software". Como señaló Rodney Brooks hace muchos años, no es solo el software de inteligencia artificial el que define las características de IA de la plataforma, sino que es la propia plataforma la que afecta a la IA resultante; es decir, es necesario trabajar en problemas de IA en plataformas del mundo real, no de forma aislada.
Una amplia variedad de plataformas ha permitido el desarrollo de diferentes aspectos de la IA, desde sistemas expertos como Cyc hasta marcos de aprendizaje profundo y plataformas robóticas como Roomba con interfaz abierta. Los recientes avances en redes neuronales artificiales profundas y computación distribuida han propiciado la proliferación de bibliotecas de software, como Deeplearning4j, TensorFlow, Theano y Torch.
Asociación en IA
Amazon, Google, Facebook, IBM y Microsoft han establecido una alianza sin fines de lucro para formular las mejores prácticas en tecnologías de inteligencia artificial, promover la comprensión pública y servir como plataforma sobre inteligencia artificial. Declararon: «Esta alianza sobre IA realizará investigaciones, organizará debates, ofrecerá liderazgo de pensamiento, consultará con terceros relevantes, responderá preguntas del público y los medios de comunicación, y creará material educativo que impulse la comprensión de las tecnologías de IA, incluyendo la percepción artificial, el aprendizaje y el razonamiento automatizado». Apple se unió a otras empresas tecnológicas como miembro fundador de la Alianza sobre IA en enero de 2017. Los miembros corporativos realizarán contribuciones financieras y de investigación al grupo, a la vez que colaborarán con la comunidad científica para incorporar académicos a la junta directiva.
Filosofía y ética
Hay tres cuestiones filosóficas relacionadas con la IA:
¿Es posible la inteligencia artificial general? ¿Puede una máquina resolver cualquier problema que un ser humano pueda resolver usando inteligencia? ¿O existen límites estrictos a lo que una máquina puede lograr?
¿Son peligrosas las máquinas inteligentes? ¿Cómo podemos garantizar que se comporten y utilicen éticamente?
¿Puede una máquina tener mente, consciencia y estados mentales exactamente igual que los seres humanos? ¿Puede una máquina ser sintiente y, por lo tanto, merecer ciertos derechos? ¿Puede una máquina causar daño intencionalmente?
Los límites de la inteligencia artificial general
¿Puede una máquina ser inteligente? ¿Puede "pensar"?
La "convención cortés" de Turing
No necesitamos decidir si una máquina puede "pensar"; solo necesitamos decidir si una máquina puede actuar con la misma inteligencia que un ser humano. Este enfoque de los problemas filosóficos asociados con la inteligencia artificial constituye la base de la prueba de Turing.
La propuesta de Dartmouth
«Cada aspecto del aprendizaje o cualquier otra característica de la inteligencia puede describirse con tanta precisión que una máquina puede simularlo». Esta conjetura se incluyó en la propuesta para la Conferencia de Dartmouth de 1956 y representa la postura de la mayoría de los investigadores activos en IA.
Hipótesis del sistema de símbolos físicos de Newell y Simon
Un sistema de símbolos físicos posee los medios necesarios y suficientes para una acción inteligente general. Newell y Simon argumentan que la inteligencia consiste en operaciones formales con símbolos. Hubert Dreyfus argumentó que, por el contrario, la pericia humana depende del instinto inconsciente, más que de la manipulación consciente de símbolos, y de una percepción de la situación, más que de un conocimiento simbólico explícito. (Véase la crítica de Dreyfus a la IA).
argumentos gödelianos
El propio Gödel, John Lucas (en 1961) y Roger Penrose (en un argumento más detallado a partir de 1989) presentaron argumentos altamente técnicos que afirmaban que los matemáticos humanos pueden ver consistentemente la verdad de sus propias "declaraciones de Gödel" y, por lo tanto, poseen capacidades computacionales superiores a las de las máquinas de Turing mecánicas. Sin embargo, el consenso actual en la comunidad científica y matemática es que estos "argumentos gödelianos" son infundados.
El argumento del cerebro artificial
El cerebro puede ser simulado por máquinas y, dado que los cerebros son inteligentes, los cerebros simulados también deben serlo; por lo tanto, las máquinas pueden ser inteligentes. Hans Moravec, Ray Kurzweil y otros han argumentado que es tecnológicamente factible copiar el cerebro directamente en hardware y software, y que dicha simulación será esencialmente idéntica al original.
El efecto IA
Las máquinas ya son inteligentes, pero los observadores no lo han reconocido. Cuando Deep Blue venció a Garry Kasparov en ajedrez, la máquina actuaba con inteligencia. Sin embargo, los observadores suelen desestimar el comportamiento de un programa de inteligencia artificial argumentando que, después de todo, no es inteligencia "real"; por lo tanto, la "inteligencia real" es cualquier comportamiento inteligente que las personas puedan realizar y que las máquinas aún no puedan. Esto se conoce como el Efecto IA: "La IA es todo lo que aún no se ha hecho".
Riesgos potenciales y razonamiento moral
El uso generalizado de la inteligencia artificial podría tener consecuencias imprevistas, peligrosas o indeseables. Científicos del Future of Life Institute, entre otros, describieron algunos objetivos de investigación a corto plazo como la influencia de la IA en la economía, las leyes y la ética relacionadas con la IA, y cómo minimizar los riesgos de seguridad de la IA. A largo plazo, los científicos han propuesto seguir optimizando las funciones, minimizando al mismo tiempo los posibles riesgos de seguridad que conllevan las nuevas tecnologías.
Las máquinas con inteligencia tienen el potencial de usarla para tomar decisiones éticas. La investigación en este campo incluye la "ética de las máquinas", los "agentes morales artificiales" y el estudio de la "IA malévola vs. amistosa".
Riesgo existencial
El desarrollo de la inteligencia artificial completa podría significar el fin de la raza humana. Una vez que los humanos desarrollen inteligencia artificial, esta despegará por sí sola y se rediseñará a un ritmo cada vez mayor. Los humanos, limitados por la lenta evolución biológica, no podrían competir y serían superados.
Una preocupación común sobre el desarrollo de la inteligencia artificial es la amenaza potencial que podría representar para la humanidad. Esta preocupación ha cobrado relevancia recientemente tras ser mencionada por celebridades como Stephen Hawking, Bill Gates y Elon Musk. Un grupo de destacados titanes tecnológicos, entre ellos Peter Thiel, Amazon Web Services y Musk, ha comprometido mil millones de dólares a OpenAI, una organización sin fines de lucro dedicada a promover el desarrollo responsable de la IA. La opinión de los expertos en inteligencia artificial es diversa, con un número considerable de personas preocupadas y despreocupadas por el riesgo que representaría una futura IA con capacidades sobrehumanas.
En su libro Superinteligencia, Nick Bostrom argumenta que la inteligencia artificial representará una amenaza para la humanidad. Sostiene que una IA suficientemente inteligente, si elige acciones basadas en el logro de un objetivo, exhibirá un comportamiento convergente, como adquirir recursos o protegerse de ser desactivada. Si los objetivos de esta IA no reflejan los de la humanidad (por ejemplo, una IA a la que se le pide que calcule tantos dígitos de pi como sea posible), podría perjudicar a la humanidad para adquirir más recursos o evitar ser desactivada, y así, en última instancia, lograr mejor su objetivo.
Para que este peligro se materialice, la IA hipotética tendría que dominar o superar en inteligencia a toda la humanidad, lo cual, según una minoría de expertos, es una posibilidad tan lejana en el futuro que no merece la pena investigar. Otros contraargumentos giran en torno a que los humanos son valiosos, intrínsecamente o convergentemente, desde la perspectiva de una inteligencia artificial.
La preocupación por los riesgos de la inteligencia artificial ha dado lugar a importantes donaciones e inversiones. En enero de 2015, Elon Musk donó diez millones de dólares al Future of Life Institute para financiar investigaciones sobre la comprensión de la toma de decisiones en IA. El objetivo del instituto es desarrollar la sabiduría necesaria para gestionar el creciente poder de la tecnología. Musk también financia empresas que desarrollan inteligencia artificial, como Google DeepMind y Vicarious, para estar al tanto de lo que ocurre con la inteligencia artificial. Creo que esto podría tener consecuencias peligrosas.
El desarrollo de la inteligencia artificial militarizada es una preocupación relacionada. Actualmente, más de 50 países, entre ellos Estados Unidos, China, Rusia y el Reino Unido, investigan robots para el campo de batalla. Muchas personas, preocupadas por los riesgos de la IA superinteligente, también quieren limitar el uso de soldados artificiales.
Devaluación de la humanidad
Joseph Weizenbaum escribió que las aplicaciones de IA no pueden, por definición, simular con éxito la empatía humana genuina y que el uso de la tecnología de IA en campos como la atención al cliente o la psicoterapia era profundamente erróneo. A Weizenbaum también le preocupaba que los investigadores de IA (y algunos filósofos) estuvieran dispuestos a considerar la mente humana como un simple programa informático (una postura que ahora se conoce como computacionalismo). Para Weizenbaum, estos puntos sugieren que la investigación en IA devalúa la vida humana.
Disminución de la demanda de mano de obra humana
Martin Ford, autor de The Lights in the Tunnel: Automation, Accelerating Technology and the Economy of the Future (Las luces en el túnel: automatización, aceleración tecnológica y la economía del futuro), y otros argumentan que las aplicaciones especializadas de inteligencia artificial, la robótica y otras formas de automatización generarán un desempleo significativo a medida que las máquinas comiencen a igualar y superar la capacidad de los trabajadores para realizar la mayoría de los trabajos rutinarios y repetitivos. Ford predice que muchas ocupaciones basadas en el conocimiento, y en particular los empleos de nivel inicial, serán cada vez más susceptibles a la automatización mediante sistemas expertos, aprendizaje automático y otras aplicaciones mejoradas con IA. Las aplicaciones basadas en IA también podrían utilizarse para ampliar las capacidades de los trabajadores extranjeros con bajos salarios, lo que facilitaría la externalización del trabajo del conocimiento.
Agentes morales artificiales
Esto plantea la cuestión de cuán éticamente debería comportarse la máquina tanto con los humanos como con otros agentes de IA. Wendell Wallach abordó esta cuestión en su libro " Máquinas Morales", donde introdujo el concepto de agentes morales artificiales (AMA). Para Wallach, los AMA se han convertido en parte del panorama de la investigación en inteligencia artificial, guiados por sus dos preguntas centrales: "¿Quiere la humanidad que las computadoras tomen decisiones morales?" y "¿Pueden los (ro)bots ser realmente morales?". Para Wallach, la pregunta no se centra en si las máquinas pueden demostrar un comportamiento moral equivalente a las limitaciones que la sociedad pueda imponer al desarrollo de los AMA.
Ética de las máquinas
El campo de la ética de las máquinas se ocupa de proporcionar a las máquinas principios éticos o un procedimiento para descubrir una forma de resolver los dilemas éticos que puedan encontrar, permitiéndoles funcionar de una manera éticamente responsable a través de su propia toma de decisiones éticas. El campo se definió en el Simposio sobre Ética de las Máquinas de la AAAI de otoño de 2005: «Las investigaciones previas sobre la relación entre la tecnología y la ética se han centrado principalmente en el uso responsable e irresponsable de la tecnología por parte de los seres humanos, y algunos se han interesado en cómo los seres humanos deberían tratar a las máquinas. En todos los casos, solo los seres humanos han reflexionado sobre la ética. Ha llegado el momento de añadir una dimensión ética al menos a algunas máquinas. El reconocimiento de las ramificaciones éticas del comportamiento que involucra a las máquinas, así como los desarrollos recientes y potenciales en su autonomía, lo requieren. A diferencia del hackeo informático, los problemas de propiedad del software, la privacidad y otros temas que normalmente se atribuyen a la ética informática, la ética de las máquinas se ocupa del comportamiento de las máquinas hacia los usuarios humanos y otras máquinas. La investigación en ética de las máquinas es clave para disipar las preocupaciones sobre los sistemas autónomos; se podría argumentar que la noción de máquinas autónomas sin dicha dimensión es la raíz de todo temor en torno a la inteligencia artificial. Además, la investigación de la ética de las máquinas podría permitir el descubrimiento de problemas con las teorías éticas actuales, impulsando nuestro pensamiento sobre la ética». La ética de las máquinas se conoce a veces como moralidad de las máquinas, ética computacional o moralidad computacional. Se pueden encontrar diversas perspectivas de este campo emergente en la edición recopilada "Ética de las Máquinas", fruto del Simposio sobre Ética de las Máquinas de la AAAI de otoño de 2005.
IA malévola y amigable
El politólogo Charles T. Rubin cree que la IA no puede diseñarse ni garantizarse como benevolente. Argumenta que «cualquier benevolencia suficientemente avanzada puede ser indistinguible de la malevolencia». Los humanos no deberíamos asumir que las máquinas o los robots nos tratarían con favoritismo, ya que no hay ninguna razón a priori para creer que simpatizarían con nuestro sistema moral, que ha evolucionado junto con nuestra biología particular (que las IA no compartirían). El software hiperinteligente no necesariamente decidiría apoyar la existencia continua de la humanidad, y sería extremadamente difícil de detener. Este tema también ha comenzado a debatirse recientemente en publicaciones académicas como una fuente real de riesgos para la civilización, los humanos y el planeta Tierra.
El físico Stephen Hawking, el fundador de Microsoft, Bill Gates, y el fundador de SpaceX, Elon Musk, han expresado su preocupación por la posibilidad de que la IA pueda evolucionar hasta el punto que los humanos no puedan controlarla, y Hawking teoriza que esto podría "significar el fin de la raza humana".
Una propuesta para abordar esto es garantizar que la primera IA generalmente inteligente sea una IA amigable, y que luego pueda controlar las IA desarrolladas posteriormente. Algunos cuestionan si este tipo de control podría realmente mantenerse.
El destacado investigador en IA, Rodney Brooks, escribe: «Creo que es un error preocuparse por el desarrollo de una IA maliciosa en los próximos siglos. Creo que la preocupación se debe a un error fundamental: no distinguir entre los avances recientes, muy reales, en un aspecto particular de la IA y la enormidad y complejidad que supone desarrollar una inteligencia volitiva consciente».
Conciencia, sensibilidad y mente de las máquinas
Si un sistema de IA replica todos los aspectos clave de la inteligencia humana, ¿será también consciente? ¿Tendrá una mente capaz de experimentar experiencias conscientes? Esta pregunta está estrechamente relacionada con el problema filosófico de la naturaleza de la consciencia humana, generalmente conocido como el problema complejo de la consciencia.
Computacionalismo y funcionalismo
El computacionalismo es la postura, dentro de la filosofía de la mente, que sostiene que la mente o el cerebro humano (o ambos) son sistemas de procesamiento de información y que el pensamiento es una forma de computación. El computacionalismo argumenta que la relación entre la mente y el cuerpo es similar o idéntica a la relación entre el software y el hardware, y por lo tanto podría ser una solución al problema mente-cuerpo. Esta postura filosófica se inspiró en el trabajo de investigadores de IA y científicos cognitivos en la década de 1960 y fue propuesta originalmente por los filósofos Jerry Fodor y Hilary Putnam .
Hipótesis de IA fuerte
La postura filosófica que John Searle denominó "IA fuerte" afirma: "Una computadora adecuadamente programada, con las entradas y salidas correctas, tendría una mente exactamente igual que la tienen los seres humanos". Searle contrarresta esta afirmación con su argumento de la habitación china, que nos invita a mirar dentro de la computadora e intentar encontrar dónde podría estar la "mente".
Derechos de los robots
El Frankenstein de Mary Shelley aborda una cuestión clave en la ética de la inteligencia artificial: si se pudiera crear una máquina con inteligencia, ¿podría también sentir ? Si puede sentir, ¿tiene los mismos derechos que un humano? La idea también aparece en la ciencia ficción moderna, como en la película AI: Inteligencia Artificial, donde las máquinas humanoides tienen la capacidad de sentir emociones. Esta cuestión, ahora conocida como "derechos de los robots", está siendo considerada, por ejemplo, por el Instituto para el Futuro de California, aunque muchos críticos creen que el debate es prematuro. El tema se aborda en profundidad en el documental de 2010 " Plug & Pray" .
Superinteligencia
¿Existen límites a la inteligencia de las máquinas, o de los híbridos humano-máquina? Una superinteligencia, hiperinteligencia o inteligencia sobrehumana es un agente hipotético que poseería una inteligencia muy superior a la de la mente humana más brillante y dotada. « Superinteligencia » también puede referirse a la forma o grado de inteligencia que posee dicho agente.
Singularidad tecnológica
Si la investigación sobre IA Fuerte produjera un software suficientemente inteligente, podría reprogramarse y mejorarse a sí mismo. El software mejorado sería aún mejor en su autosuperación, lo que llevaría a una autosuperación recursiva. La nueva inteligencia podría así crecer exponencialmente y superar drásticamente a los humanos. El escritor de ciencia ficción Vernor Vinge denominó este escenario "singularidad". La singularidad tecnológica se produce cuando el progreso acelerado de las tecnologías causará un efecto descontrolado en el que la inteligencia artificial superará la capacidad intelectual y el control humanos, cambiando radicalmente o incluso acabando con la civilización. Dado que las capacidades de dicha inteligencia pueden ser incomprensibles, la singularidad tecnológica es un fenómeno más allá del cual los acontecimientos son impredecibles o incluso inimaginables.
Ray Kurzweil ha utilizado la ley de Moore (que describe la implacable mejora exponencial de la tecnología digital) para calcular que los ordenadores de escritorio tendrán el mismo poder de procesamiento que los cerebros humanos en el año 2029, y predice que la singularidad ocurrirá en 2045.
Transhumanismo
Una mañana, al despertar, descubres que tu cerebro tiene otro lóbulo funcionando. Invisible, este lóbulo auxiliar responde a tus preguntas con información que escapa a tu memoria, sugiere acciones plausibles y formula preguntas que ayudan a extraer datos relevantes. Rápidamente, te acostumbras tanto a este nuevo lóbulo que dejas de preguntarte cómo funciona. Simplemente lo usas. Este es el sueño de la inteligencia artificial.
El diseñador de robots Hans Moravec, el cibernético Kevin Warwick y el inventor Ray Kurzweil han predicho que humanos y máquinas se fusionarán en el futuro para formar cíborgs más capaces y poderosos que cualquiera de ellos. Esta idea, llamada transhumanismo, que tiene sus raíces en Aldous Huxley y Robert Ettinger, también se ha ilustrado en la ficción, por ejemplo, en el manga Ghost in the Shell y la serie de ciencia ficción Dune .
En la década de 1980, la serie "Robots Sexy" del artista Hajime Sorayama se pintó y publicó en Japón, representando la forma humana orgánica real con pieles metálicas musculosas y realistas. Posteriormente, se publicó el libro "Ginoides", que fue utilizado o influenciado por cineastas como George Lucas y otros creadores. Sorayama nunca consideró a estos robots orgánicos como parte real de la naturaleza, sino siempre como un producto antinatural de la mente humana, una fantasía que existe incluso cuando se materializa.
Edward Fredkin sostiene que "la inteligencia artificial es la siguiente etapa de la evolución", una idea propuesta por primera vez por Samuel Butler en "Darwin entre las máquinas" (1863), y ampliada por George Dyson en su libro del mismo nombre en 1998.
En la ficción
Seres artificiales capaces de pensar han aparecido como dispositivos narrativos desde la antigüedad.
Las implicaciones de una máquina construida con inteligencia artificial han sido un tema recurrente en la ciencia ficción desde el siglo XX. Las primeras historias solían girar en torno a robots inteligentes. El término "robot" fue acuñado por Karel Čapek en su obra de 1921, RUR, cuyo título significa "Robots Universales de Rossum". Posteriormente, el escritor de ciencia ficción Isaac Asimov desarrolló las Tres Leyes de la Robótica, que posteriormente exploró en una larga serie de historias sobre robots. Las leyes de Asimov se mencionan a menudo en debates sobre ética de las máquinas; si bien casi todos los investigadores de inteligencia artificial están familiarizados con las leyes de Asimov a través de la cultura popular, generalmente las consideran inútiles por diversas razones, una de las cuales es su ambigüedad.
La novela ¿Sueñan los androides con ovejas eléctricas?, de Philip K. Dick, narra una historia de ciencia ficción sobre androides y humanos que se enfrentan en un mundo futurista. Entre los elementos de la inteligencia artificial se incluyen la caja de empatía, el órgano del estado de ánimo y los propios androides. A lo largo de la novela, Dick retrata la idea de que la subjetividad humana se ve alterada por la tecnología creada con inteligencia artificial.
Hoy en día, la IA está firmemente arraigada en la cultura popular; los robots inteligentes aparecen en innumerables obras. HAL, el ordenador asesino a cargo de la nave espacial en 2001: Una odisea del espacio (1968), es un ejemplo del arquetipo común de "alboroto robótico" en las películas de ciencia ficción. Terminator (1984) y Matrix (1999) ofrecen ejemplos adicionales ampliamente conocidos. En cambio, los raros robots leales como Gort de " El impasse de la Tierra" (1951) y Bishop de "Aliens" (1986) son menos prominentes en la cultura popular.
(Fuente: alchetron.com)
Tecnología |
Big Data |
Big Data 2 |
Turing |
Ingeniería genética |
Science 2017 |
Turing |
Células madre |
Fotosíntesis |
Genoma: Aniversario |
Embriología |
Genética |
Genética 2 |
Heurística
| |||||
[ Inicio | Ciencia | SOC | DOCS | Economía | Historia | FIL | Natur | SER | CLAS | Letras | Africa ] |
|||||