miércoles, 22 de junio de 2011

Lógica difusa

La lógica difusa o lógica heuristica se basa en lo relativo de lo observado como posición diferencial. Este tipo de lógica toma dos valores aleatorio, pero contextualizados y referidos entre sí. Así, por ejemplo, una persona que mida 2 metros es claramente una persona alta, si previamente se ha tomado el valor de persona baja y se ha establecido en 1 metro. Ambos valores están contextualizados a personas y referidos a una medida métrica lineal.

Aplicaciones

Aplicaciones generales

La lógica difusa se utiliza cuando la complejidad del proceso en cuestión es muy alta y no existen modelos matemáticos precisos, para procesos altamente no lineales y cuando se envuelven definiciones y conocimiento no estrictamente definido (impreciso o subjetivo).
En cambio, no es una buena idea usarla cuando algún modelo matemático ya soluciona eficientemente el problema, cuando los problemas son lineales o cuando no tienen solución.
Esta técnica se ha empleado con bastante éxito en la industria, principalmente en Japón, y cada vez se está usando en gran multitud de campos. La primera vez que se usó de forma importante fue en el metro japonés, con excelentes resultados. A continuación se citan algunos ejemplos de su aplicación:

  Sistemas de control de acondicionadores de aire
  Sistemas de foco automático en cámaras fotográficas
  Electrodomésticos familiares (frigoríficos, lavadoras...)
  Optimización de sistemas de control industriales
  Sistemas de escritura
  Mejora en la eficiencia del uso de combustible en motores
 Sistemas expertos del conocimiento (simular el comportamiento de un experto humano)Tecnología informática
 Bases de datos difusas: Almacenar y consultar información imprecisa. Para este punto, por ejemplo, existe el lenguaje FSQL. 
y, en general, en la gran mayoría de los sistemas de control que no dependen de un Sí/No.

 Lógica difusa en inteligencia artificial

En Inteligencia artificial, la lógica difusa, o lógica borrosa se utiliza para la resolución de una variedad de problemas, principalmente los relacionados con control de procesos industriales complejos y sistemas de decisión en general, la resolución la compresión de datos. Los sistemas de lógica difusa están también muy extendidos en la tecnología cotidiana, por ejemplo en cámaras digitales, sistemas de aire acondicionado, lavarropas, etc. Los sistemas basados en lógica difusa imitan la forma en que toman decisiones los humanos, con la ventaja de ser mucho más rápidos. Estos sistemas son generalmente robustos y tolerantes a imprecisiones y ruidos en los datos de entrada. Algunos lenguajes de programación lógica que han incorporado la lógica difusa serían por ejemplo las diversas implementaciones de Fuzzy PROLOG o el lenguaje Fril.
Consiste en la aplicación de la lógica difusa con la intención de imitar el razonamiento humano en la programación de computadoras. Con la lógica convencional, las computadoras pueden manipular valores estrictamente duales, como verdadero/falso, sí/no o ligado/desligado. En la lógica difusa, se usan modelos matemáticos para representar nociones subjetivas, como caliente/tibio/frío, para valores concretos que puedan ser manipuladas por los ordenadores.
En este paradigma, también tiene un especial valor la variable del tiempo, ya que los sistemas de control pueden necesitar retroalimentarse en un espacio concreto de tiempo, pueden necesitarse datos anteriores para hacer una evaluación media de la situación en un período anterior...

Ventajas e inconvenientes

Como principal ventaja, cabe destacar los excelentes resultados que brinda un sistema de control basado en lógica difusa: ofrece salidas de una forma veloz y precisa, disminuyendo así las transiciones de estados fundamentales en el entorno físico que controle. Por ejemplo, si el aire acondicionado se encendiese al llegar a la temperatura de 30º, y la temperatura actual oscilase entre los 29º-30º, nuestro sistema de aire acondicionado estaría encendiéndose y apagándose continuamente, con el gasto energético que ello conllevaría. Si estuviese regulado por lógica difusa, esos 30º no serían ningún umbral, y el sistema de control aprendería a mantener una temperatura estable sin continuos apagados y encendidos.
También está la indecisión de decantarse bien por los expertos o bien por la tecnología (principalmente mediante redes neuronales) para reforzar las reglas heurísticas iniciales de cualquier sistema de control basado en este tipo de lógica.

martes, 21 de junio de 2011

teoria del caos

la teoría del Caos
 
Desde hace mucho tiempo los científicos han creído que la naturaleza era determinista, es decir que todos sus componentes seguían unas leyes universales, y que conociendo dichas leyes podríamos llegar a prever todos los fenómenos.
Cuando Newton creó el Cálculo, se descubrío que estas leyes universales podían describirse con ecuaciones diferenciales, de esta forma para conocer con exactitud el comportamiento de un sistema tan solo era necesarío conocer la ecuación que lo caracteriza y los valores iniciales de las variables.
Como herramienta paralela al Cálculo se desarrolló la topología, en esta rama de las matemáticas se trabaja con las ecuaciones diferenciales representándolas como superficies de n dimensiones. Al observar las superficies generadas por estas ecuaciones conocidas se descubrió que convergían a unas estructuras especiales que llamaron atractores. Los atractores más regulares son un punto, una esfera, un toro(es como una rosquilla), las ecuaciones con estos atractores tenían un comportamiento muy regular, de forma que si partiendo de unas condiciones iniciales cualquiera, por ejemplo (1.83, 1.94), se llegaba a un determinado resultado , digamos 2. 22, partiendo de condiciones cercanas (1.85, 1.92) se obtenía también un resultado cercano, por ejemplo 2.23. Todo hasta aquí encajaba muy bien con la idea del determinismo.
Sin embargo hace algunos años, utilizando técnicas de computación por ordenador, se observó que algunas ecuaciones diferenciales tenían atractores muy distintos (el término es "atractores extraños"). Estudiando las características de estos atractores se comprobó que era imposible predecir en su totalidad el comportamiento de un sistema si éste tenía atractores extraños.
Recordemos que para definir un sistema creíamos que bastaba con la ecuación que lo describe y las condiciones iniciales. Ahora bien las condiciones iniciales no son absolutas, dependen de la precisión con que las midamos. Por ejemplo si decimos que X=3 con una precisión de 2 decimales, estamos diciendo que X podría ser 3.001, 3.002, 3.003....., si aumentamos la precisión a 10 tendríamos que X=3.00000000001, o 3.00000000008, para asegurar que X es exactamente 3 necesitaríamos una precisión infinita, y lamentablemente imposible.
El problema que plantean los atractores extraños es que el resultado que van a dar depende de todos y cada uno de los decimales de sus condiciones iniciales. Es decir si tu sistema empezase en 3.001, dará un resultado totalmente distinto a si comenzase en 3.002. Si conseguimos más precisión resulta que el problema se manteniene. Si comenzamos en 3.0000-un millón de ceros-001 el resultado será distinto a sí comenzásemos en 3.0000-un millón de ceros-002. Para que pudiésemos predecir el comportamiento del sistema necesitaríamos tener infinitos decimales, y lo cual como ya comentamos antes es del todo imposible.
Este tipo de sistemas confirmó que el universo no es determinista ya que por mucha información que tengas de un sistema con un atractor extraño nunca podrás predecir su comportamiento. Por tanto se demostró la existencia del Caos.
A partir de aquí se han descubierto sistemas caóticos en todos los ámbitos, desde los latidos del corazón, al vuelo de una mosca, la agitación de la superficie del agua, la evolución de la economía... y se ha conseguido, utilizando modelos basados en a tractores extraños, atacar algunos problemas que antes parecían inabordables. Parece ser que estos sistemas no son totalmente impredecibles pudiendo establecerse modelos de comportamiento a corto plazo. Además un hecho que ha llamado la atención sobre estos sistemas es que no son, como se podría esperar, completamente anárquicos sino que muchos de ellos presentan simetrías muy complejas, de aquí han salido las famosas figuras fráctales, que actualmente son consideradas tanto ciencia como arte. 

 

evolucion de las redes

 evolución de las redes 






 1844 Nace la TELEGRAFÍA (Samuel Morse)
 1861 Primer Red Telegráfica en EUA
 1866 Primer red telegráfica EUA-Inglaterra
 1876 Nace la TELEFONÍA (Alexander Graham Bell)
 1878 Primer red telefónica local en New Haven, EUA
 1892 Primer red telefónica entre New York-Chicago
 1897 Primer red telefónica nacional en EUA
 1898 Nace la comunicación inalámbrica (Marconi)
 1915 Nace la radiodifusión en AM
 1918 Primer estación AM (KDKA en Pittsburgh)
 1923-1938 Nace la televisón
 1937 Primer red de televisió (BBC de Londres)
 1941 Primer estación en FM (WKCR en Univ. de Columbia)
 1950 Primer red de microondas
 1960s Primeras redes vía satélite
 1969 Primer red de Supercomputadoras, ARPANET, Advanced Research Project Agency del Deparatamento de Defensa, se unen 4 universidades, UCLA, UCSB, SRI y la Universidad de UTAH. Los primeros 4 nodos de Internet.
 1980s Primeras redes de computadoras personales (Ethernet, Token Ring, Arcnet)
1981 Nacen las primeras redes de telefonía celular
 1997 Nacen las primeras redes de DTH (Television Directa al Hogar)

redes multiples



Red de frecuencia múltiple
 
Las redes de frecuencia múltiple (MFN o Multiple Frequency Network) es un tipo de red donde distintas frecuencias (canales de RF o radiofrecuencias) son utilizados para transmitir contenido audiovisual. Hay dos tipos destacados de redes de frecuencia múltiple, las horizontales y las verticales.
Las redes de datos, como las redes de comunicación wireless, deben escoger entre ofrecer un servicio personalizado a cada usuario o proveer un servicio a un gran número de terminales. Por ejemplo, la distribución de contenido multimedia (como la televisión, tanto analógica como digital (TDT)) a un gran número de subscriptores o usuarios es un problema complicado debido a la limitación del espectro de frecuencias.
Por lo tanto, es un problema importante para los operadores de red, los proveedores de contenidos y los proveedores de servicios el hecho de distribuir contenido y/o otros servicios de un modo eficiente y rápido. En televisión analógica este sistema es el que predomina, pero en la TDT se está pasando en la mayoría de casos a la red de frecuencia unica debido a las ventajas que comporta este paso.
Funcionamiento


Las redes de frecuencia múltiple horizontales son aquellas donde la distribución de las señales transmitidas se hace en canales de radiofrecuencia distintos y en áreas diferentes. El contenido de la señal puede ser el mismo o diferente en los diferentes canales de RF. Por ejemplo, en Televisión de Catalunya (TVC) pueden usar distintos canales de RF a las distintas provincias catalanas para así tener la posibilidad de hacer desconexiones y emitir contenidos distintos.
El otro tipo, las redes de frecuencia múltiples verticales son las que en cada canal de radiofrecuencia son usados en las distintas áreas para transmitir contenido diferente con el propósito de incrementar la capacidad de la red (para ofrecer más contenidos al usuario o destinatario final). Por ejemplo en la área de Barcelona, cada canal de RF transmitirá contenidos distintos.
El despliegue de las redes de frecuencia múltiple será vertical en algunas áreas y horizontal en otras. En una red de frecuencias verticales típica, la  

infraestructura local de operaciones (LOI o local operations infraestructure) debe transmitir distintas señales sobre múltiples canales de RF en una determinada región geográfica.
Cada señal puede contener uno o más contenido, que pueden ser seleccionados por los receptores (en un canal de RF en TDT normalmente viajan 4 programas diferentes). Les LOI adyacentes pueden utilizar el mismo o diferentes canales de RF.
Durante la operación, el receptor podrá cambiar el canal de RF a petición del usuario. También podrá cambiar de canal de RF siempre que la adquisición del contenido fuera errónea debido a la movilidad del receptor, a su situación o a otras condiciones del canal. La movilidad del receptor se define como la posibilidad de cambio de área de cobertura de un determinado LOI hacia otro LOI vecino.
Típicamente, el receptor cambiará de canal de RF hacia algún que transporte el contenido deseado por el usuario. En caso que falle, es posible que el contenido se encuentre en algún otro canal de RF debido a la proximidad de los diferentes LOI’s.
También cabe destacar que es posible que en los diferentes canales de RF de cada LOI se puedan introducir gran variedad de contenido adicional (por ejemplo el teletexto, subtítulos o contenido interactivo) y que si el receptor, de manera aleatoria, selecciona un contenido en un canal de RF de un LOI determinado, es posible que los contenidos adicionales no estén presentes ya que se puede dar el caso que no todos los LOI los difundan.
Por lo tanto, sería deseable conseguir un sistema que permita al receptor seleccionar el canal de RF asociado al LOI que transporte los máximos contenidos adicionales. Así permitiría al usuario una mayor satisfacción ya que se accedería a los contenidos adicionales de la forma más rápida y eficiente posible.


                

redes monoliticas



 red monolítica o peer to peer

Una red Peer-to-Peer o red de pares o red entre iguales o red entre pares o red punto a punto (P2P, por sus siglas en inglés) es una red de computadoras  en la que todos o algunos aspectos funcionan sin clientes ni servidores  fijos, sino una serie de nodos que se comportan como iguales entre sí. Es decir, actúan simultáneamente como clientes y servidores respecto a los demás nodos de la red. Las redes P2P permiten el intercambio directo de información, en cualquier formato, entre los ordenadores interconectados.
El hecho de que sirvan para compartir e intercambiar información de forma directa entre dos o más usuarios ha propiciado que parte de los usuarios lo utilicen para intercambiar archivos cuyo contenido está sujeto a las leyes de  copyrigth, lo que ha generado una gran polémica entre defensores y detractores de estos sistemas.
Las redes peer-to-peer aprovechan, administran y optimizan el uso del  ancho de banda de los demás usuarios de la red por medio de la conectividad entre los mismos, y obtienen así más rendimiento en las conexiones y transferencias que con algunos métodos centralizados convencionales, donde una cantidad relativamente pequeña de servidores provee el total del ancho de banda y recursos compartidos para un servicio o aplicación.
Dichas redes son útiles para diversos propósitos. A menudo se usan para compartir ficheros de cualquier tipo (por ejemplo, audio, vídeo o software). Este tipo de red también suele usarse en telefonía  VolP para hacer más eficiente la transmisión de datos en tiempo real.


Características
Seis características deseables de las redes P2P:

Escalabilidad. Las redes P2P tienen un alcance mundial con cientos de millones de usuarios potenciales. En general, lo deseable es que cuantos más nodos estén conectados a una red P2P, mejor será su funcionamiento. Así, cuando los nodos llegan y comparten sus propios recursos, los recursos totales del sistema aumentan. Esto es diferente en una arquitectura del modo servidor-cliente con un sistema fijo de servidores, en los cuales la adición de clientes podría significar una transferencia de datos más lenta para todos los usuarios. Algunos autores advierten que, si proliferan mucho este tipo de redes, cliente-servidor, podrían llegar a su fin, ya que a cada una de estas redes se conectarán muy pocos usuarios.

 
Robustez. La naturaleza distribuida de las redes peer-to-peer también incrementa la robustez en caso de haber fallos en la réplica excesiva de los datos hacia múltiples destinos, y —-en sistemas P2P puros—- permitiendo a los peers encontrar la información sin hacer peticiones a ningún servidor centralizado de indexado. En el último caso, no hay ningún punto singular de falla en el sistema.
 
Descentralización. Estas redes por definición son descentralizadas y todos los nodos son iguales. No existen nodos con funciones especiales, y por tanto ningún nodo es imprescindible para el funcionamiento de la red. En realidad, algunas redes comúnmente llamadas P2P no cumplen esta característica, como Napster,  eDonkey o  BitTorrent.
 
Distribución de costes entre los usuarios. Se comparten o donan recursos a cambio de recursos. Según la aplicación de la red, los recursos pueden ser archivos, ancho de banda, ciclos de proceso o almacenamiento de disco.
 
Anonimato. Es deseable que en estas redes quede anónimo el autor de un contenido, el editor, el lector, el servidor que lo alberga y la petición para encontrarlo, siempre que así lo necesiten los usuarios. Muchas veces el derecho al anonimato y los derechos de autor son incompatibles entre sí, y la industria propone mecanismos como el DRM para limitar ambos.

Seguridad. Es una de las características deseables de las redes P2P menos implementada. Los objetivos de un P2P seguro serían identificar y evitar los nodos maliciosos, evitar el contenido infectado, evitar el espionaje de las comunicaciones entre nodos, creación de grupos seguros de nodos dentro de la red, protección de los recursos de la red... La mayor parte de los nodos aún están bajo investigación, pero los mecanismos más prometedores son: cifrado multiclave, cajas de arena, gestión de derechos de autor (la industria define qué puede hacer el usuario; por ejemplo, la segunda vez que se oye la canción se apaga), reputación (permitir acceso sólo a los conocidos), comunicaciones seguras, comentarios sobre los ficheros, etc.
 

                        

rede neuronales ventajas

Redes neuronales 


Las redes de neuronas artificiales (denominadas habitualmente como RNA ingles como: "ANN") son un paradigma de aprendizaje y procesamiento automático inspirado en la forma en que funciona el sistema nervioso de los animales. Se trata de un sistema de interconexión de neuronas en una red o en que colabora para producir un estímulo de salida.

 
Otras definiciones de Redes Neuronales

Una red neuronal es un procesador 
masivamente paralelo distribuido que es propenso por naturaleza a almacenar conocimiento experimental y hacerlo disponible para su uso. Este mecanismo se parece al cerebro en dos aspectos [SH1]:
El conocimiento es adquirido por la red a través de un proceso que se denomina aprendizaje.
El conocimiento se almacena mediante la modificación de la fuerza o peso sináptico de las distintas uniones entre neuronas.

Ventajas que ofrecen las redes neuronales


Debido a su construcción 
y a sus fundamentos, las redes neuronales artificiales presentan un gran número de características semejantes a las del cerebro. Por ejemplo, son capaces de aprender de la experiencia, de generalizar de casos anteriores a nuevos casos, de abstraer características esenciales a partir de entradas que representan información irrelevante, etc. Esto hace que ofrezcan numerosas ventajas y que este tipo de tecnología  se esté aplicando en múltiples áreas. Entre las ventajas se incluyen:
Aprendizaje Adaptativo: capacidad de aprender a realizar tareas basadas en un entrenamiento o en una experiencia inicial.
Auto-organización: una red neuronal puede crear su propia organización o representación de la información que recibe mediante una etapa de aprendizaje.
Tolerancia a fallos: la destrucción parcial de una red conduce a una degradación de su estructura sin embargo, algunas capacidades de la red se pueden retener, incluso sufriendo un gran daño
Operación en tiempo real: los cómputos neuronales pueden ser realizados en paralelo; para esto se diseñan y fabrican máquinas con hardware especial para obtener esta capacidad.
Fácil inserción dentro de la tecnología existente: se pueden obtener chips especializados para redes neuronales que mejoran su capacidad en ciertas tareas. Ello facilitará la integración  modular en los sistemas existentes.

 

uso de los sistemas expertos ventajas y desventajas

USOS DE UN SISTEMA EXPERTO





Un sistema experto es muy eficaz cuando tiene que analizar una gran cantidad de información, interpretándola y proporcionando una recomendación a partir de la misma. Un ejemplo es el análisis financiero, donde se estudian las oportunidades de inversión, dependiendo de los datos financieros de un cliente y de sus propósitos.
Para detectar y reparar fallos en equipos electrónicos, se utilizan los sistemas expertos de diagnóstico y depuración, que formulan listas de preguntas con las que obtienen los datos necesarios para llegar a una conclusión. Entonces recomiendan las acciones adecuadas para corregir los problemas descubiertos. Este tipo de sistemas se utilizan también en medicina (ej. MYCIN y PUFF), y para localizar problemas en sistemas informáticos grandes y complejos.
Los sistemas expertos son buenos para predecir resultados futuros a partir del conocimiento que tienen. Los sistemas meteorológicos y de inversión en bolsa son ejemplos de utilización en este sentido. El sistema PROSPECTOR es de este tipo.
La planificación es la secuencia de acciones necesaria para lograr una meta. Conseguir una buena planificación a largo plazo es muy difícil. Por ello, se usan sistemas expertos para gestionar proyectos de desarrollo, planes de producción de fábricas, estrategia militar y configuración de complejos sistemas informáticos, entre otros.
Cuando se necesita controlar un proceso tomando decisiones como respuesta a su estado y no existe una solución algorítmica adecuada, es necesario usar un sistema experto. Este campo comprende el supervisar fábricas automatizadas, factorías químicas o centrales nucleares. Estos sistemas son extraordinariamente críticos porque normalmente tienen que trabajar a tiempo real.
El diseño requiere una enorme cantidad de conocimientos debido a que hay que tener en cuenta muchas especificaciones y restricciones. En este caso, el sistema experto ayuda al diseñador a completar el diseño de forma competente y dentro de los límites de costes y de tiempo. Se diseñan circuitos electrónicos, circuitos integrados, tarjetas de circuito impreso, estructuras arquitectónicas, coches, piezas mecánicas, etc.
Por último, un sistema experto puede evaluar el nivel de conocimientos y comprensión de un estudiante, y ajustar el proceso de aprendizaje de acuerdo con sus necesidades.

ventajas

Entre las principales ventajas de un Sistema Experto, se pueden mencionar:
Los Sistemas Expertos que se codifican y tratan el conocimiento de un experto, alcanzan el nivel de prestaciones de un experto humano.
La separación entre base de conocimiento y motor de inferencia proporciona una gran flexibilidad al Sistema.
Los Sistemas Expertos permiten llegar a una reflexión sobre el conocimiento y los procedimientos, para toma de decisiones realizados por los expertos.
Posibilidad de trazar el razonamiento seguido por el Sistema Experto.
Algunos Sistemas Expertos utilizan coeficientes de verosimilitud para ponderar sus deducciones.
En manipulación de símbolos, los Sistemas Expertos abren el campo a nuevas aplicaciones, no automatizadas hasta la fecha .
 
 Desventajas

Aunque son grandes las ventajas, no hay que dejar de lado las desventajas que se pueden presentar:
La publicidad realizada alrededor de esta técnica seduce a muchas personas pero crea aspiraciones imposibles de satisfacer.
La extracción del conocimiento es el problema más complejo que se les plantea a los ingenieros de conocimientos.
Ciertos problemas están ligados a la representación del conocimiento.
Los SE son incapaces de reconocer un problema para el que su propio conocimiento es inaplicable o insuficiente.
Los motores de inferencia poseen algunos límites.
Las interfaces con usuarios no son lo suficientemente amigables.
Las aplicaciones suministradas por los SE son, frecuentemente, esotéricas.
Falta personal competente para investigar y desarrollar aplicaciones.
Campo de aplicaciones restringido y específico.
El costo es bastante alto.
Aunque se conozcan las ventajas y las desventajas de los Sistemas Expertos, no se logra una visión clara de los Sistemas Expertos y su capacidad, hasta que se conocen algunos ejemplos en aplicaciones reales.

arquitectura ydiferencias entre los sistemas expertos y tradicionales

 Arquitectura básica de los sistemas expertos
 
Base de conocimientos. Es la parte del sistema experto que contiene elconocimiento sobre el dominio. hay que obtener el conocimiento del experto ycodificarlo en la base de conocimientos. Una forma clásica de representar elconocimiento en un sistema experto son lar reglas. Una regla es una estructura condicional que relacionalógicamente la información contenida en la parte del antecedente con otrainformación contenida en la parte del consecuente.
Base de hechos (memoriade trabajo). Contiene los hechos sobre un problema que se handescubierto durante una consulta. Durante una consulta con el sistema experto,el usuario introduce la información del problema actual en la base de hechos.El sistema empareja esta información con el conocimiento disponible en la basede conocimientos para deducir nuevos hechos.


Diferencias entre sistema clásico y un sistema experto


Conocimientoy procesamiento combinados en un programa Base de conocimiento separada delmecanismo de procesamiento
Nocontiene errores Puede contener errores
No da explicaciones, los datos sólo se usan o escriben Una parte del sistema experto la forma el módulo de explicación
Los cambios son tediosos Los cambios en las reglas son fáciles El sistema sólo opera completo El sistema puede funcionar con pocas reglas
Se ejecuta paso a paso La ejecución usa heurísticas y lógica Necesita información completa para operar Puede operar con información incompleta
Representa  y usa datos Representa y usa conocimiento 


CICLO DE VIDA DE UN SISTEMA EXPERTO Weiss y Kulikowski (1984) sugieren el siguiente:
CICLO DE VIDA DE UN SISTEMA TRADICIONAL Según Senn:
1.Planteamiento del problema. La primera etapa en cualquier proyecto es normalmente la definición  del problema a resolver. Puesto que el objetivo principal de un sistema experto es responder a preguntas y resolver problemas, esta etapa es quizás la mas importante en el desarrollo de un sistema experto. Si el sistema esta mal definido, se espera que el sistema suministre respuestas erróneas.
2. Encontrar expertos humanos que puedan resolver el problema. En algunos casos, sin embargo, las bases de datos pueden jugar el papel del experto humano.

3. Diseño de un sistema experto. Esta etapa incluye el diseño de estructuras para almacenar el conocimiento, el motor de inferencia, el subsistema de explicación, la interfase de usuario, etc.

4. Elección de la herramienta de desarrollo, concha, o lenguaje de programación.

Debe decidirse si realizar un sistema experto a medida, o utilizar una concha, una herramienta, o un lenguaje de programación. Si existiera una concha satisfaciendo todos los requerimientos del diseño, esta deberıa ser la elección, no solo por razones de tipo financiero sino también por razones de fiabilidad. Las conchas y herramientas comerciales están sujetas a controles de calidad, a los que otros programas no lo están.

5. Desarrollo y prueba de un prototipo. Si el prototipo no pasa las pruebas requeridas, las etapas anteriores (con las modificaciones apropiadas) deben ser repetidas hasta que se obtenga un prototipo satisfactorio.

6. Refinamiento y generalizacion. En esta etapa se corrigen los fallos y se incluyen nuevas posibilidades no incorporadas en el diseno inicial.

7. Mantenimiento y puesta al dıa. En esta etapa el usuario plantea problemas o defectos del prototipo, corrige errores, actualiza el producto con nuevos avances, etc.

Todas estas etapas influyen en la calidad del sistema experto resultante, que siempre debe ser evaluado en función de las aportaciones de los usuarios.
1.Estudio preliminar.- Se realiza el  levantamiento de información, la definición del problema, y un estudio de factibilidad.Análisis: Se elabora el modelo funcional del sistema actual, se determina los requerimientos, se realiza la descripción y evaluación de alternativas para  finalmente aprobarlas.2.Diseño: se elabora un  modelo funcional del sistema propuesto, a partir de un  diseño lógico, se elabora y presenta el prototipo del sistema con el fin de obtener la aprobación del sistema propuesto3.Implementación: comprende el desarrollo del software, pruebas del sistema, y puesta en marcha (acondicionamiento de locales – organización del cliente – entregar aplicación probada – elaborar datos en vivo – adiestramiento – carga de datos en vivo – entrega de documentación – asignar responsabilidades – determinar fin de la instalación) 
4.Mantenimiento: es la última fase del ciclo de vida de desarrollo de sistemas, en donde los sistemas son sistemáticamente reparados y mejorados.  Por definición, el proceso de mantenimiento de un si es un proceso de devolución al principio del ciclo de vida y de repetición de los pasos de desarrollo para la implementación de cambios (las 4 actividades más importantes que ocurren dentro del mantenimiento son: obtención de los requerimientos de mantenimiento, transformación de los requerimientos en cambios, diseño de los cambios e implementación de los cambios).
 



sistemas expertos

Sistemas Expertos

¿Qué es un sistema experto?

Los Sistemas Expertos, rama de la Inteligencia Artificial, son sistemasinformáticos que simulan el proceso de aprendizaje, de memorización, derazonamiento, de comunicación y de acción en consecuencia de un experto humanoen cualquier rama de la ciencia.
Estascaracterísticas le permiten almacenar datos y conocimiento, sacar conclusioneslógicas, tomar decisiones, aprender de la experiencia y los datos existentes,comunicarse con expertos humanos, explicar el por qué de las decisiones tomadasy realizar acciones como consecuencia de todo lo anterior.
Técnicamenteun sistema experto, contiene una base de conocimientos que incluye laexperiencia acumulada de expertos humanos y un conjunto de reglas para aplicarésta base de conocimientos en una situación particular que se le indica alprograma. Cada vez el sistema se mejora con adiciones a la base deconocimientos o al conjunto de reglas.


¿Por quéutilizar un Sistema Experto?
  1. Con la ayuda de un Sistema Experto, personas con poca experiencia pueden resolver problemas que requieren un "conocimiento formal especializado".
  2. Los Sistemas Expertos pueden obtener conclusiones y resolver problemas de forma más rápida que los expertos humanos.
  3. Los Sistemas Expertos razonan pero en base a un conocimiento adquirido y no tienen sitio para la subjetividad.
  4. Se ha comprobado que los Sistemas Expertos tienen al menos, la misma competencia que un especialista humano.
  5. El uso de Sistemas Expertos es especialmente recomendado en las siguientes situaciones:
            Cuando los expertos humanos en una determinada materia son escasos.
            
            En situaciones complejas, donde la subjetividad humana puede llevar a conclusiones erróneas.
            
            Cuando es muy elevado el volumen de datos que ha de considerarse para obtener una conclusión.