1.2 LOS FUNDAMENTOS DE LA INTELIGENCIA
ARTIFICIAL
Esto es
una breve historia de las disciplinas que han contribuido con las ideas, puntos
de vista y técnicas en el desarrollo de la inteligencia artificial.
Sobre personas que han contribuido para avanzar en responder a las cuestiones sobre la inteligencia artificial.
Sobre personas que han contribuido para avanzar en responder a las cuestiones sobre la inteligencia artificial.
FILOSOFÍA (DESDE EL AÑO 428 A.C. HASTA EL
PRESENTE).
Aristóteles
fue el primero quien formulo un conjunto preciso de leyes que gobernaban la
parte racional de la inteligencia. El cual consistía en razonar con silogismos
que permitía obtener conclusiones mecánicamente.
Thomas
Hobbes el propuso que el razonamiento era como la computación numérica.
Una vez que se sabe que un conjunto de reglas pueden describir la parte racional y formal de la mente, lo siguiente seria considerar la mente como un sistema físico.
Rene Descartes fue quien proporcionó la primera discusión sobre la distinción entre la mente y la materia y sobre los problemas que surgen. Descartes fue también un defensor del dualismo: el sostenía que existe una parte de la mente que está al margen de la naturaleza, exenta de la influencia de las leyes físicas y que los animales no poseen esta dualidad esto es que como alternativa al dualismo ellos conciben el materialismo es decir que las operaciones que realiza el cerebro son de acuerdo con las leyes físicas.
La teoría de la confirmación de Carnap y Carl Hempel intenta la explicación que el conocimiento se obtiene a partir de la experiencia.
Una vez que se sabe que un conjunto de reglas pueden describir la parte racional y formal de la mente, lo siguiente seria considerar la mente como un sistema físico.
Rene Descartes fue quien proporcionó la primera discusión sobre la distinción entre la mente y la materia y sobre los problemas que surgen. Descartes fue también un defensor del dualismo: el sostenía que existe una parte de la mente que está al margen de la naturaleza, exenta de la influencia de las leyes físicas y que los animales no poseen esta dualidad esto es que como alternativa al dualismo ellos conciben el materialismo es decir que las operaciones que realiza el cerebro son de acuerdo con las leyes físicas.
La teoría de la confirmación de Carnap y Carl Hempel intenta la explicación que el conocimiento se obtiene a partir de la experiencia.
MATEMÁTICAS (APROXIMADAMENTE DESDE EL AÑO 800
AL PRESENTE).
Una vez
que los filósofos delimitaron las ideas más importantes de la inteligencia
artificial para poder pasar a una ciencia formal sería necesario contar con un
formulación matemática en tres áreas fundamentales: lógica, computación y
probabilidad.
George
Boole este filosofo definió la lógica proposicional o Booleana, Gottlob Frege
fue quien más tarde extendió la lógica de Boole para incluir objetos y
relaciones, y también creó la lógica de primer orden que se utiliza hoy como el
sistema más básico de representación de conocimiento.
La
probabilidad también tuvo un lugar en contribución a la inteligencia
artificial. La probabilidad se convirtió en una parte imprescindible de las
ciencias cuantitativas, ayudando en el tratamiento de mediciones con incertidumbre
y de teorías incompletas, como por ejemplo;
Thomas Bayes propuso una regla para la actualización de probabilidades subjetivas a la luz de nuevas evidencias.
Thomas Bayes propuso una regla para la actualización de probabilidades subjetivas a la luz de nuevas evidencias.
ECONOMÍA (DESDE EL AÑO 1776 HASTA EL
PRESENTE).
Adam Smith
fue el primero en tratar al pensamiento económico como una ciencia, utilizando
la idea de que las economías pueden concebirse como un conjunto de agentes
individuales que intentan maximizar su propio estado de bienestar económico.
La teoría de la decisión proporciona un marco completo y formal para la toma de decisiones realizadas bajo incertidumbre.
El trabajo de la economía y la investigación operativa ha contribuido en gran medida a la noción de agente racional.
La teoría de la decisión proporciona un marco completo y formal para la toma de decisiones realizadas bajo incertidumbre.
El trabajo de la economía y la investigación operativa ha contribuido en gran medida a la noción de agente racional.
NEUROCIENCIA (DESDE EL AÑO 1861 HASTA EL
PRESENTE).
La
neurociencia es el estudio del sistema neurológico, y en especial del cerebro,
es decir la forma de como el cerebro procesa la información.
Searle concluye que una colección de simples células puede llegar a generar razonamiento, acción y conciencia.
La teoría como alternativa es el misticismo: que nos dice que existe alguna esfera mística en la que las mentes operan fuera del control de la ciencia física.
Los psicólogos comparten que se debe de describir un mecanismo de procesamiento de información detallado, lo cual lleva consigo la implementación de algunas funciones cognoscitivas.
Searle concluye que una colección de simples células puede llegar a generar razonamiento, acción y conciencia.
La teoría como alternativa es el misticismo: que nos dice que existe alguna esfera mística en la que las mentes operan fuera del control de la ciencia física.
Los psicólogos comparten que se debe de describir un mecanismo de procesamiento de información detallado, lo cual lleva consigo la implementación de algunas funciones cognoscitivas.
PSICOLOGÍA (DESDE EL AÑO 1879 HASTA EL
PRESENTE).
La
psicología se encarga del estudio de cómo piensan y actúan los humanos.
La concepción del cerebro como un dispositivo de procesamiento de información, característica principal de la psicología cognitiva, se remota por lo menos a las obras de William James.
La concepción del cerebro como un dispositivo de procesamiento de información, característica principal de la psicología cognitiva, se remota por lo menos a las obras de William James.
INGENIERÍA COMPUTACIONAL (DESDE EL AÑO 1940
HASTA EL PRESENTE).
Para que
la inteligencia pueda llegar a ser una realidad se necesitan dos cosas:
inteligencia y artefacto.
La inteligencia artificial también tiene una deuda con la parte software de la informática que ha proporcionado los sistemas operativos, los lenguajes de programación, y las herramientas necesarias para escribir programas modernos, sin embargo la investigación en la IA ha generado numerosas ideas novedosas de las que se ha beneficiado la informática en general, como por ejemplo los computadores personales con interfaces gráficas y ratones.
Entonces la ingeniería computacional tiene mucho que ver con la construcción de un computador más eficiente.
La inteligencia artificial también tiene una deuda con la parte software de la informática que ha proporcionado los sistemas operativos, los lenguajes de programación, y las herramientas necesarias para escribir programas modernos, sin embargo la investigación en la IA ha generado numerosas ideas novedosas de las que se ha beneficiado la informática en general, como por ejemplo los computadores personales con interfaces gráficas y ratones.
Entonces la ingeniería computacional tiene mucho que ver con la construcción de un computador más eficiente.
TEORÍA DE CONTROL Y CIBERNÉTICA (DESDE EL AÑO
1948 HASTA EL PRESENTE).
Esta
teoría trata sobre como los artefactos pueden tener control de ellos.
La teoría de control de Norbert Wiener el trabajo en sistemas de control biológico y mecánico y en sus vínculos con la cognición. La teoría de control moderna, especialmente la rama conocida como control optimo estocástico, tiene como objetivo el diseño de sistemas que maximizan una función objetivo en el tiempo. Lo cual hace similitud en la visión de lo que es la inteligencia artificial.
Las herramientas de inferencia lógica y computación permitieron a los investigadores de la inteligencia artificial afrontar problemas relacionados con el lenguaje, visión y planificación, que estaban completamente fuera del punto de mira de la teoría de control.
La teoría de control de Norbert Wiener el trabajo en sistemas de control biológico y mecánico y en sus vínculos con la cognición. La teoría de control moderna, especialmente la rama conocida como control optimo estocástico, tiene como objetivo el diseño de sistemas que maximizan una función objetivo en el tiempo. Lo cual hace similitud en la visión de lo que es la inteligencia artificial.
Las herramientas de inferencia lógica y computación permitieron a los investigadores de la inteligencia artificial afrontar problemas relacionados con el lenguaje, visión y planificación, que estaban completamente fuera del punto de mira de la teoría de control.
LINGÜÍSTICA (DESDE EL AÑO 1957 HASTA EL
PRESENTE).
Esta
teoría se basa en la relación del lenguaje con el pensamiento.
El entendimiento del lenguaje requiere de la comprensión de la materia bajo estudio y de su contexto, y no solamente el entendimiento de la estructura de las sentencias.
La representación del conocimiento estaba vinculada al lenguaje y a la búsqueda de información en el campo del lenguaje.
El entendimiento del lenguaje requiere de la comprensión de la materia bajo estudio y de su contexto, y no solamente el entendimiento de la estructura de las sentencias.
La representación del conocimiento estaba vinculada al lenguaje y a la búsqueda de información en el campo del lenguaje.
1.3 HISTORIA DE LA INTELIGENCIA ARTIFICIAL GÉNESIS DE LA INTELIGENCIA ARTIFICIAL.
Warren
McCulloch Y Walter Pitss (1943) Partieron de la filosofía básica y
funcionamiento de las neuronas del cerebro, el análisis formal de la lógica
proposicional de Russell y Whitehead y la teoría de la computación de Turín.
Propusieron un modelo constituido por neuronas artificiales, en el que cada una
de ellas se caracterizaba por estar <activada> o <desactivada>; la
activación o desactivación daba como respuesta la estimulación producida por la
entidad suficientes de neuronas vecinas.
Dos estudiantes graduados en el Departamento de Matemáticas de Princeton, Marvin Minsky y Deán Edmons, construyeron el primer computador a partir de una red neural en 1951.
Dos estudiantes graduados en el Departamento de Matemáticas de Princeton, Marvin Minsky y Deán Edmons, construyeron el primer computador a partir de una red neural en 1951.
NACIMIENTO DE LA INTELIGENCIA ARTIFICIAL
(1956).
McCarthy
se trasladó al Dartmouth College, quien organizó un congreso para aumentar el
interés de los investigadores americanos en la teoría de autómatas, las redes
neuronales y el estudio de la inteligencia. Este congreso no dio grandes
resultados pero logro relacionar grandes figuras. Dos integrantes de ese
congreso crearon un programa llamado el teórico lógico (TL) que fueron Newell y
Simon McCarthy propuso el nombre de INTELIGENCIA ARTIFICIAL.
ENTUSIASMO INICIAL GRANDES ESPERANZAS
(1952-1969).
Los
primero s años de la IA fueron exitosos pero con limitaciones aunque la mayoría
de la comunidad científica creía que una maquina nunca podría realizar tareas
como los humanos. Al corto tiempo Newell Y Simon desarrollaron el sistema de
resolución general de problemas (SRGP) este programa se diseñ0 para que imitara
protocolos de resolución de problemas de los seres humanos. Los modelos de
cognición llevaron a Newell y Simon (1976) a la famosa hipótesis del SISTEMA DE
SIMBOLOS FISICOS. Que afirmaba que los símbolos físicos tienen los medios
suficientes y necesarios para generar una acción inteligente.
En IBM, Nathaniel Rochester y sus colegas desarrollaron algunos de los primeros programas de IA Herbert Gelenter (1956) construyo el demostrador de teoremas de geometría (DTG). McCarthy se trasladó de Darmouth al MIT, Donde definió el lenguaje de alto nivel LISP, que se convirtió el lenguaje de programación dominante en la IA.
Minsky superviso el trabajo de unos estudiantes que eligieron un número de problemas limitados cuya solución pareció requerir inteligencia. Estos dominios limitados se conocen como micro mundos. El micro mundo más famoso fue el mundo de los bloques, que consiste en un conjunto de bloques solidos colocados sobre una mesa que su tarea típica era la reordenación de bloques.
En IBM, Nathaniel Rochester y sus colegas desarrollaron algunos de los primeros programas de IA Herbert Gelenter (1956) construyo el demostrador de teoremas de geometría (DTG). McCarthy se trasladó de Darmouth al MIT, Donde definió el lenguaje de alto nivel LISP, que se convirtió el lenguaje de programación dominante en la IA.
Minsky superviso el trabajo de unos estudiantes que eligieron un número de problemas limitados cuya solución pareció requerir inteligencia. Estos dominios limitados se conocen como micro mundos. El micro mundo más famoso fue el mundo de los bloques, que consiste en un conjunto de bloques solidos colocados sobre una mesa que su tarea típica era la reordenación de bloques.
UNA DOSIS DE REALIDAD.
Desde el
principio, los investigadores de la IA hicieron públicas, sin timidez,
Predicciones sobre el éxito que les esperaba:
Sin afán de sorprenderlos y dejarlos atónitos, pero la forma más sencilla que tengo de resumirlo es diciéndoles que actualmente en el mundo existen maquinas capaces de pensar, aprender y crear. Además, su aptitud para hacer lo anterior aumentara rápidamente hasta que la magnitud de problemas que serán capaces de resolver ira a la par que la capacidad de la mente humana para hacer lo mismo.
Sin afán de sorprenderlos y dejarlos atónitos, pero la forma más sencilla que tengo de resumirlo es diciéndoles que actualmente en el mundo existen maquinas capaces de pensar, aprender y crear. Además, su aptitud para hacer lo anterior aumentara rápidamente hasta que la magnitud de problemas que serán capaces de resolver ira a la par que la capacidad de la mente humana para hacer lo mismo.
El primer
tipo de problemas surgió porque la mayoría de los primeros programas contaban
con poco o ningún conocimiento de la materia objeto de estudio, el segundo
problema era que los problemas que intentaban resolver eran intratables
SISTEMAS BASADOS EN EL CONOCIMIENTO: ¿CLAVE
DEL PODER? (1969-1976).
El cuadro
que dibuja la resolución de problemas durante la primera década de la
investigación en la IA estaba centrado en el desarrollo de mecanismos de
búsqueda de propósito general, en los que se entrelazaban elementos de
razonamiento básico para encontrar así soluciones completas. A estos
procedimientos se les ha denominado métodos débiles, debido a que no tratan
problemas más amplios y complejos,
EL
programa DENDRAL (Buchanan et al 1969) constituye uno de los primeros ejemplos
de este enfoque fue diseñado en Stanford donde se colaboraron en la resolución
del problema de inferir una estructura molecular a partir de la información
proporcionada por un espectrómetro de masas.
La versión más simple del [programa generaba todas la posibles estructuras posibles que correspondían a la formula.
LA trascendencia de DENDRAL se debió a ser el primer sistema de conocimiento intenso que tuvo éxito: su base de conocimiento estaba formada por grandes cantidades de reglas de propósito particular.
La IA se convierte en une industria (desde 1980 hasta el presente)
La versión más simple del [programa generaba todas la posibles estructuras posibles que correspondían a la formula.
LA trascendencia de DENDRAL se debió a ser el primer sistema de conocimiento intenso que tuvo éxito: su base de conocimiento estaba formada por grandes cantidades de reglas de propósito particular.
La IA se convierte en une industria (desde 1980 hasta el presente)
El primer
sistema experto comercial que tuvo éxito, R1, inicio su actividad en Digital
Equipment Corporation el programa se utilizaba en la elaboración de pedidos de
nuevos sistemas informáticos. El grupo de inteligencia artificial DEC había
distribuido ya 40 sistemas expertos, y había más en camino.
En 1981 los japoneses anunciaron el proyecto quinta generación un plan de 10 años para construir computadores inteligentes en los que pudiese ejecutarse Prolog. Como respuesta estados unidos Construyo la Microelectronics and Competer Tecnología Corporation (MCC)
En su conjunto la industria de la IA creció rápidamente, pasando de unos pocos millones de dólares en 1980 a billones de dólares en 1988.
En 1981 los japoneses anunciaron el proyecto quinta generación un plan de 10 años para construir computadores inteligentes en los que pudiese ejecutarse Prolog. Como respuesta estados unidos Construyo la Microelectronics and Competer Tecnología Corporation (MCC)
En su conjunto la industria de la IA creció rápidamente, pasando de unos pocos millones de dólares en 1980 a billones de dólares en 1988.
REGRESO DE LAS REDES NEURONALES (DESDE 1986
HASTA EL PRESENTE).
Aunque la
información había abandonado de manera general el campo de las redes neuronales
a finales de los años 70, el trabajo continúo en otros campos. Físicos como
John Hopfield (1982) utilizaron técnicas de mecánica estadística para analizar
las propiedades de almacenamiento y optimización de las redes, tratando
colecciones de nodos como colecciones de átomos. Aquellos modelos de
inteligencia artificial llamados conexionistas fueron vistos por algunos como
competidores tanto de3 los modelos simbólicos propuestos por Newell y Simon
como la aproximación lógica de McCarthy entre otros.
IA SE CONVIERTE EN UNA CIENCIA (DESDE 1987
HASTA EL PRESENTE).
En los
últimos años se ha producido una revolución tanto en el contenido como en la
metodología de trabajo en el campo de la inteligencia artificial.
En la década de los 70’s se sometió a prueba una gran variedad de arquitecturas y enfoques. Muchos de ellos fueron un tanto ad hoc y resultaban frágiles, y fueron probados solo en unos pocos ejemplos elegidos especialmente.
En la década de los 70’s se sometió a prueba una gran variedad de arquitecturas y enfoques. Muchos de ellos fueron un tanto ad hoc y resultaban frágiles, y fueron probados solo en unos pocos ejemplos elegidos especialmente.
EMERGENCIA DE LOS SISTEMAS INTELIGENTES.
El llamado
movimiento situado intenta entender la forma de actuar de los agentes
inteligentes inmersos en entornos reales, que disponen de sensores de entradas
continuas. Uno de los medios más importantes para los agentes inteligentes es
internet. Los sistemas IA han llegado a ser tan comunes en aplicaciones
desarrolladas para; la web como que el sufijo bot se ha introducido en lenguaje
común.
No hay comentarios:
Publicar un comentario