lunes, 18 de febrero de 2013



 1.2 LOS FUNDAMENTOS DE LA INTELIGENCIA ARTIFICIAL

Esto es una breve historia de las disciplinas que han contribuido con las ideas, puntos de vista y técnicas en el desarrollo de la inteligencia artificial.
Sobre personas que han contribuido para avanzar en responder a las cuestiones sobre la inteligencia artificial.
FILOSOFÍA (DESDE EL AÑO 428 A.C. HASTA EL PRESENTE).

Aristóteles fue el primero quien formulo un conjunto preciso de leyes que gobernaban la parte racional de la inteligencia. El cual consistía en razonar con silogismos que permitía obtener conclusiones mecánicamente.
Thomas Hobbes el propuso que el razonamiento era como la computación numérica.
Una vez que se sabe que un conjunto de reglas pueden describir la parte racional y formal de la mente, lo siguiente seria considerar la mente como un sistema físico.
Rene Descartes fue quien proporcionó la primera discusión sobre la distinción entre la mente y la materia y sobre los problemas que surgen. Descartes fue también un defensor del dualismo: el sostenía que existe una parte de la mente que está al margen de la naturaleza, exenta de la influencia de las leyes físicas y que los animales no poseen esta dualidad esto es que como alternativa al dualismo ellos conciben el materialismo es decir que las operaciones que realiza el cerebro son de acuerdo con las leyes físicas.
La teoría de la confirmación de Carnap y Carl Hempel intenta la explicación que el conocimiento se obtiene a partir de la experiencia.
MATEMÁTICAS (APROXIMADAMENTE DESDE EL AÑO 800 AL PRESENTE).

Una vez que los filósofos delimitaron las ideas más importantes de la inteligencia artificial para poder pasar a una ciencia formal sería necesario contar con un formulación matemática en tres áreas fundamentales: lógica, computación y probabilidad.
George Boole este filosofo definió la lógica proposicional o Booleana, Gottlob Frege fue quien más tarde extendió la lógica de Boole para incluir objetos y relaciones, y también creó la lógica de primer orden que se utiliza hoy como el sistema más básico de representación de conocimiento.
La probabilidad también tuvo un lugar en contribución a la inteligencia artificial. La probabilidad se convirtió en una parte imprescindible de las ciencias cuantitativas, ayudando en el tratamiento de mediciones con incertidumbre y de teorías incompletas, como por ejemplo;
Thomas Bayes propuso una regla para la actualización de probabilidades subjetivas a la luz de nuevas evidencias.
ECONOMÍA (DESDE EL AÑO 1776 HASTA EL PRESENTE).

Adam Smith fue el primero en tratar al pensamiento económico como una ciencia, utilizando la idea de que las economías pueden concebirse como un conjunto de agentes individuales que intentan maximizar su propio estado de bienestar económico.
La teoría de la decisión proporciona un marco completo y formal para la toma de decisiones realizadas bajo incertidumbre.
El trabajo de la economía y la investigación operativa ha contribuido en gran medida a la noción de agente racional.
NEUROCIENCIA (DESDE EL AÑO 1861 HASTA EL PRESENTE).

La neurociencia es el estudio del sistema neurológico, y en especial del cerebro, es decir la forma de como el cerebro procesa la información.
Searle concluye que una colección de simples células puede llegar a generar razonamiento, acción y conciencia.
La teoría como alternativa es el misticismo: que nos dice que existe alguna esfera mística en la que las mentes operan fuera del control de la ciencia física.
Los psicólogos comparten que se debe de describir un mecanismo de procesamiento de información detallado, lo cual lleva consigo la implementación de algunas funciones cognoscitivas.
PSICOLOGÍA (DESDE EL AÑO 1879 HASTA EL PRESENTE).

La psicología se encarga del estudio de cómo piensan y actúan los humanos.
La concepción del cerebro como un dispositivo de procesamiento de información, característica principal de la psicología cognitiva, se remota por lo menos a las obras de William James.
INGENIERÍA COMPUTACIONAL (DESDE EL AÑO 1940 HASTA EL PRESENTE).

Para que la inteligencia pueda llegar a ser una realidad se necesitan dos cosas: inteligencia y artefacto.
La inteligencia artificial también tiene una deuda con la parte software de la informática que ha proporcionado los sistemas operativos, los lenguajes de programación, y las herramientas necesarias para escribir programas modernos, sin embargo la investigación en la IA ha generado numerosas ideas novedosas de las que se ha beneficiado la informática en general, como por ejemplo los computadores personales con interfaces gráficas y ratones.
Entonces la ingeniería computacional tiene mucho que ver con la construcción de un computador más eficiente.
TEORÍA DE CONTROL Y CIBERNÉTICA (DESDE EL AÑO 1948 HASTA EL PRESENTE).

Esta teoría trata sobre como los artefactos pueden tener control de ellos.
La teoría de control de Norbert Wiener el trabajo en sistemas de control biológico y mecánico y en sus vínculos con la cognición. La teoría de control moderna, especialmente la rama conocida como control optimo estocástico, tiene como objetivo el diseño de sistemas que maximizan una función objetivo en el tiempo. Lo cual hace similitud en la visión de lo que es la inteligencia artificial.
Las herramientas de inferencia lógica y computación permitieron a los investigadores de la inteligencia artificial afrontar problemas relacionados con el lenguaje, visión y planificación, que estaban completamente fuera del punto de mira de la teoría de control.
LINGÜÍSTICA (DESDE EL AÑO 1957 HASTA EL PRESENTE).

Esta teoría se basa en la relación del lenguaje con el pensamiento.
El entendimiento del lenguaje requiere de la comprensión de la materia bajo estudio y de su contexto, y no solamente el entendimiento de la estructura de las sentencias.
La representación del conocimiento estaba vinculada al lenguaje y a la búsqueda de información en el campo del lenguaje.
1.3 HISTORIA DE LA INTELIGENCIA ARTIFICIAL GÉNESIS DE LA INTELIGENCIA ARTIFICIAL.

Warren McCulloch Y Walter Pitss (1943) Partieron de la filosofía básica y funcionamiento de las neuronas del cerebro, el análisis formal de la lógica proposicional de Russell y Whitehead y la teoría de la computación de Turín. Propusieron un modelo constituido por neuronas artificiales, en el que cada una de ellas se caracterizaba por estar <activada> o <desactivada>; la activación o desactivación daba como respuesta la estimulación producida por la entidad suficientes de neuronas vecinas.
Dos estudiantes graduados en el Departamento de Matemáticas de Princeton, Marvin Minsky y Deán Edmons, construyeron el primer computador a partir de una red neural en 1951.
NACIMIENTO DE LA INTELIGENCIA ARTIFICIAL (1956).

McCarthy se trasladó al Dartmouth College, quien organizó un congreso para aumentar el interés de los investigadores americanos en la teoría de autómatas, las redes neuronales y el estudio de la inteligencia. Este congreso no dio grandes resultados pero logro relacionar grandes figuras. Dos integrantes de ese congreso crearon un programa llamado el teórico lógico (TL) que fueron Newell y Simon McCarthy propuso el nombre de INTELIGENCIA ARTIFICIAL.
ENTUSIASMO INICIAL GRANDES ESPERANZAS (1952-1969).

Los primero s años de la IA fueron exitosos pero con limitaciones aunque la mayoría de la comunidad científica creía que una maquina nunca podría realizar tareas como los humanos. Al corto tiempo Newell Y Simon desarrollaron el sistema de resolución general de problemas (SRGP) este programa se diseñ0 para que imitara protocolos de resolución de problemas de los seres humanos. Los modelos de cognición llevaron a Newell y Simon (1976) a la famosa hipótesis del SISTEMA DE SIMBOLOS FISICOS. Que afirmaba que los símbolos físicos tienen los medios suficientes y necesarios para generar una acción inteligente.
En IBM, Nathaniel Rochester y sus colegas desarrollaron algunos de los primeros programas de IA Herbert Gelenter (1956) construyo el demostrador de teoremas de geometría (DTG). McCarthy se trasladó de Darmouth al MIT, Donde definió el lenguaje de alto nivel LISP, que se convirtió el lenguaje de programación dominante en la IA.
Minsky superviso el trabajo de unos estudiantes que eligieron un número de problemas limitados cuya solución pareció requerir inteligencia. Estos dominios limitados se conocen como micro mundos. El micro mundo más famoso fue el mundo de los bloques, que consiste en un conjunto de bloques solidos colocados sobre una mesa que su tarea típica era la reordenación de bloques.
UNA DOSIS DE REALIDAD.

Desde el principio, los investigadores de la IA hicieron públicas, sin timidez, Predicciones sobre el éxito que les esperaba:
Sin afán de sorprenderlos y dejarlos atónitos, pero la forma más sencilla que tengo de resumirlo es diciéndoles que actualmente en el mundo existen maquinas capaces de pensar, aprender y crear. Además, su aptitud para hacer lo anterior aumentara rápidamente hasta que la magnitud de problemas que serán capaces de resolver ira a la par que la capacidad de la mente humana para hacer lo mismo.
El primer tipo de problemas surgió porque la mayoría de los primeros programas contaban con poco o ningún conocimiento de la materia objeto de estudio, el segundo problema era que los problemas que intentaban resolver eran intratables
SISTEMAS BASADOS EN EL CONOCIMIENTO: ¿CLAVE DEL PODER? (1969-1976).

El cuadro que dibuja la resolución de problemas durante la primera década de la investigación en la IA estaba centrado en el desarrollo de mecanismos de búsqueda de propósito general, en los que se entrelazaban elementos de razonamiento básico para encontrar así soluciones completas. A estos procedimientos se les ha denominado métodos débiles, debido a que no tratan problemas más amplios y complejos,
EL programa DENDRAL (Buchanan et al 1969) constituye uno de los primeros ejemplos de este enfoque fue diseñado en Stanford donde se colaboraron en la resolución del problema de inferir una estructura molecular a partir de la información proporcionada por un espectrómetro de masas.
La versión más simple del [programa generaba todas la posibles estructuras posibles que correspondían a la formula.
LA trascendencia de DENDRAL se debió a ser el primer sistema de conocimiento intenso que tuvo éxito: su base de conocimiento estaba formada por grandes cantidades de reglas de propósito particular.
La IA se convierte en une industria (desde 1980 hasta el presente)
El primer sistema experto comercial que tuvo éxito, R1, inicio su actividad en Digital Equipment Corporation el programa se utilizaba en la elaboración de pedidos de nuevos sistemas informáticos. El grupo de inteligencia artificial DEC había distribuido ya 40 sistemas expertos, y había más en camino.
En 1981 los japoneses anunciaron el proyecto quinta generación un plan de 10 años para construir computadores inteligentes en los que pudiese ejecutarse Prolog. Como respuesta estados unidos Construyo la Microelectronics and Competer Tecnología Corporation (MCC)
En su conjunto la industria de la IA creció rápidamente, pasando de unos pocos millones de dólares en 1980 a billones de dólares en 1988.
REGRESO DE LAS REDES NEURONALES (DESDE 1986 HASTA EL PRESENTE).

Aunque la información había abandonado de manera general el campo de las redes neuronales a finales de los años 70, el trabajo continúo en otros campos. Físicos como John Hopfield (1982) utilizaron técnicas de mecánica estadística para analizar las propiedades de almacenamiento y optimización de las redes, tratando colecciones de nodos como colecciones de átomos. Aquellos modelos de inteligencia artificial llamados conexionistas fueron vistos por algunos como competidores tanto de3 los modelos simbólicos propuestos por Newell y Simon como la aproximación lógica de McCarthy entre otros.
IA SE CONVIERTE EN UNA CIENCIA (DESDE 1987 HASTA EL PRESENTE).

En los últimos años se ha producido una revolución tanto en el contenido como en la metodología de trabajo en el campo de la inteligencia artificial.
En la década de los 70’s se sometió a prueba una gran variedad de arquitecturas y enfoques. Muchos de ellos fueron un tanto ad hoc y resultaban frágiles, y fueron probados solo en unos pocos ejemplos elegidos especialmente.
EMERGENCIA DE LOS SISTEMAS INTELIGENTES.

El llamado movimiento situado intenta entender la forma de actuar de los agentes inteligentes inmersos en entornos reales, que disponen de sensores de entradas continuas. Uno de los medios más importantes para los agentes inteligentes es internet. Los sistemas IA han llegado a ser tan comunes en aplicaciones desarrolladas para; la web como que el sufijo bot se ha introducido en lenguaje común.

No hay comentarios:

Publicar un comentario en la entrada