Como término histórico atribuible a Searle, como un test de Turing para chinos, lo más parecido podría ser entonces la investigación de Andrew Ng en Baidu y el uso de las GPU. Sin embargo, según las tendencias de Google, está menos favorecido, mientras que algo como AGI se mantiene. Desde que el chatbot de Goostman pasó la prueba de Ucrania teniendo el inglés como segunda lengua, esto ha sido menos objetivo. Minsky había hablado de búsqueda, reconocimiento de patrones, aprendizaje y planificación. Wolfram Alpha declaró como objetivo que quería interconectar cada uno de los principales idiomas hablados. Kurzweil y Norvig en Google también son similares. Otros han trabajado en modelos computacionales de cerebros que todavía están en las etapas de pequeñas criaturas en lo que respecta a la resolución de problemas. La gran preocupación con toda la automatización actual es que quita las decisiones a las personas. La conciencia como la cordura actúa fácilmente por inducción a través de una multitud, pero lo que entonces se vuelve interesante es cuando algunos de los miembros son máquinas como en una malla. Éstas se habían introducido poco a poco en grupos como los sistemas expertos dedicados, pero ahora la infraestructura está cambiando al completo en algo como la IO. Las máquinas tienen sus propios lenguajes y protocolos y gran parte de la sociedad pasa a depender de ellas. La cuestión se convierte en qué papel desempeñan los humanos, aparte de como habitantes y pasajeros. Más que Orwell o Huxley, puede que sea el hermano de este último el que acuña el término transhumanismo que indica dónde estaría el libre albedrío en un aprieto.
No existe una forma definida como la mejor para implementar la inteligencia artificial. La IA surge por sí misma con grandes conjuntos de datos, el entrenamiento de los módulos, la mejora de los algoritmos, el nivel de precisión, las técnicas de autoaprendizaje y mucho más.
Esto sucede a lo largo del tiempo con el aumento de datos, atributos y más. Por lo tanto, no existe un método definido. Aprenda más sobre técnicas estadísticas, algoritmos de ML, álgebra, etc.
Los científicos intentan simular una arquitectura real de «cerebros artificiales» desde hace décadas, pero el hardware es demasiado lento, no hay suficiente memoria y hay algunos misterios sobre cómo funciona un cerebro real.
A partir del hardware construimos nuevos procesadores neuromórficos optimizados para el aprendizaje automático / aprendizaje profundo.
Tenemos una prueba : el test de turing donde pocos chatbots pueden simular el pensamiento libre, pero es más una ilusión que una simulación real… por ahora…
Como han dicho otros, no estamos ni mucho menos cerca de la creación de una IA fuerte. Necesitamos procesos diferentes y una tecnología diferente a la que tenemos hoy en día y, sin duda, tenemos que establecer un enfoque diferente.
Para responder a su pregunta más directamente, no hemos sido capaces de producir nada que podamos decir que es lo más cercano a una IA fuerte. Todos nuestros avances en inteligencia artificial se han basado en procesos estocásticos, que a su vez se basan en una programación determinista y en arquitecturas de sistemas de hardware deterministas. Sin embargo, una IA fuerte es una máquina capaz de razonar de forma autónoma e independiente. Como ejemplo, hemos estado construyendo aviones de papel y preguntando lo cerca que estamos del vuelo humano.
Como Justin mencionó correctamente en su respuesta, IBM Watson no es nada ni remotamente parecido a una IA fuerte. Es una especie diferente de IA. Una máquina estocástica completamente dependiente, sin pensamiento independiente, sin creatividad y sin capacidades de complejidad emergente fuera de las codificadas en su conjunto de algoritmos. Es una tecnología diferente, una especie diferente. Véase, por ejemplo, El problema de la inteligencia artificial de IBM, o Por qué Watson no puede conseguir un trabajo
. Para ser justos, nadie en IBM intentó siquiera relacionar a Watson con las IAs fuertes. Fueron los medios de comunicación populares los que, al estar más interesados en los valores de choque y menos en la información científica precisa, exageraron las capacidades de Watson.
Cualquiera que haga un trabajo serio en el campo de la inteligencia artificial está trabajando hoy en día en la exploración de nuevos y mejores algoritmos estocásticos con el fin de codificar máquinas cada vez más capaces que simulen la inteligencia humana. El reconocimiento de patrones, los algoritmos evolutivos y el aprendizaje profundo son temas candentes que nos ayudarán a crear una mejor inteligencia artificial que sea capaz de ayudar a los humanos en ciertas áreas muy específicas. Máquinas no pensantes capaces de resolver problemas muy específicos.
Nadie, que yo sepa, en la comunidad científica está tratando realmente de emular la inteligencia humana. Lo cual es un problema completamente diferente. Y a pesar de todo lo que se puede leer o ver en los libros y películas de ciencia ficción blanda, en el bombo de los medios de comunicación populares, o lo que dicen ciertos grupos pseudocientíficos de culto como los transhumanistas (que llegan a afirmar una singularidad tecnológica para los próximos 30 años), cada vez está más claro para cualquiera que haga un trabajo científico serio en el área de la inteligencia artificial que nunca la alcanzaremos programando nuestras arquitecturas de hardware actuales. De hecho, es mucho más probable que tengamos que casar la biología con la informática y que la primera IA fuerte (si es que llegamos a construir una en los próximos 500 años de avances tecnológicos) tenga muy poca programación y se base casi por completo en una reproducción de la estructura del cerebro humano y, posiblemente, incluso en su composición, delegando cualquier programación en el hardware que le permitirá comunicarse e interactuar.