Feeds:
Posts
Comments

Posts Tagged ‘Semantic’

Theorem: “The limit of The Artificial Intelligence”.

 

 

The limit of the Artificial Intelligence are not set by the use of machines themselves, and biological systems could be used to reach this goal, but as the Logic that is being used to construct it does not contemplate the concept of time, since it is purely formal logic and metonymic lacks the metaphor, and this is what Gödel’s theorems remark, the final tautology of each construction or metonymic mathematical language, which leads to inconsistencies. The construction of the Artificial Intelligence is an Undecidible Problem .

 

This consistent logic is completely opposite to the logic that makes inconsistent use of time, inherent of human unconscious, but the use of time is built on the lack, not on positive things, it is based on denials and absences, and this is impossible to reflect on a machine because of the perceived lack of the required self-awareness is acquired with the absence.

 

The problem of Artificial Intelligence is that we are trying to build an Intelligence system to replace our way of thinking, at least in the information search, but the special nature of human mind is the use of metaphor which lets human beings reach a conclusion, therefore does not exist in the human mind the Halting Problem or stop of calculation.

 

If you suppose as a theorem, that it is possible to construct a machine, with a Intelligence with capabilities similar to human Intelligence, should we face it as a theorem, we can prove it to be false with a Counter Example, and it is given in the particular case of the Turing machine and “the halting problem” or stop of calculation.

 

So all efforts faced toward Artificial Intelligence are doomed to failure a priori if the aim is to extend our human way of thinking into machines, they lack the metaphorical speech, because only a mathematical construction, which will always be tautological and metonymic, and lacks the use of metaphor that is what leads to the conclusion or “stop”.

Read Full Post »

Theorem: From Logic to Ontology: The limit of “The Semantic Web”.

 

 

The limit of the Semantic Web are not set by the use of machines themselves, and biological systems could be used to reach this goal, but as the Logic that is being used to construct it does not contemplate the concept of time, since it is purely formal logic and metonymic lacks the metaphor, and this is what Gödel’s theorems remark, the final tautology of each construction or metonymic Mathematical Language , which leads to inconsistencies. The construction of the Semantic Web is an Undecidible Problem .

 

This consistent logic is completely opposite to the logic that makes inconsistent use of time, inherent of human unconscious, but the use of time is built on the lack, not on positive things, it is based on denials and absences, and this is impossible to reflect on a machine because of the perceived lack of the required self-awareness is acquired with the absence.

 

The problem is we are trying to build an intelligent system to replace our way of thinking, at least in the information search, but the special nature of human mind is the use of time which lets human beings reach a conclusion, therefore does not exist in the human mind the Halting Problem or stop of calculation.

 

So all efforts faced toward semantic web are doomed to failure a priori if the aim is to extend our human way of thinking into machines, they lack the metaphorical speech, because only a mathematical construction, which will always be tautological and metonymic, and lacks the use of the time that is what leads to the conclusion or “stop”.

 

As a demonstration of that, if you suppose it is possible to construct the semantic web, as a language with capabilities similar to human language, which has the use of time, should we face it as a theorem, we can prove it to be false with a Counter Example, and it is given in the particular case of the Turing machine and “the halting problem”.

Read Full Post »

Cerebro, Computadoras y Mente: Del Lenguaje y del Pensamiento de los Seres Humanos, las Máquinas y los Animales. El fracaso de la Inteligencia Artificial y de la Web Semántica.

 

Francisco Antonio Cerón García

Physic’s Spanish Real Society

fcerong@gmail.com

 

Índice

 

1.- Introducción                                                                    1

    

2.- Situación actual de la Ciencia de la Computación.        3

 

3.- Los límites de las herramientas de la Ciencia: la Lógica Formal y la Experimentación                                               4

 

4.- Los mecanismos fundamentales del Lenguaje y del Pensamiento.                                                                      8

 

5.- Estructuralismo.                                                             9

 

6.- Conocimiento y Transmisión del Conocimiento.          11

 

7.- Naturaleza y Representación del Conocimiento.         14

 

8.- ¿Porque no intentar enseñar a hablar y/o a pensar a una máquina? Limitaciones y fracasos de la aproximación de la Lógica Descriptiva.                                                   17

 

9.- El Pensamiento y el Lenguaje.                                     19

 

10.- El Pensamiento no es lo mismo que el Lenguaje, y el Cerebro no es lo mismo que la Mente. ¿Qué es la Inteligencia?. ¿Qué es el Pensamiento?.                          20

 

11.- Diferencia entre los animales y los seres humanos    21

 

12.- Conclusión: Imposibilidad del Lenguaje y Pensamiento humano en las Máquinas, y el fracaso de la Inteligencia Artificial y de la Web Semántica.                                        23

 

13.- Teorema: “El Límite de la Inteligencia Artificial”.         25 

 

14.- Teorema:  De la lógica a la ontología: “El Límite de la Web Semántica”.                                                                27

 

15.- Bibliografía.                                                                 29                                                                                                                         

 

 

 

 

1.- Introducción

 

De la lectura de “Minds, Machines and Gödel”  por
J.R. Lucas
, y de otros autores como Roger Penrose, hay un numeroso trabajo previo de argumentación de la imposibilidad de hacer pensar y/o hablar a las máquinas u ordenadores.

 

 

La metonimia, el primer mecanismo del pensamiento y el lenguaje humano, ya la tenemos incorporada en las máquinas u ordenadores, es el sustrato mismo de la Lógica Simbólica y/o formal (y por lo tanto también de las Matemáticas), pero nos falta la metáfora, que es lo que a los seres humanos nos permite “concluir” en el sentido estricto del término en Psicoanálisis, la metáfora nos introduce en lo real como paso del tiempo.

 

Y este es mi gran reto: Inventar una lógica o no consistente o no completa (pero no ambas a la vez como pretende la lógica formal), que además de la metonimia presente en la lógica matemática consistente, tenga también incorporada la metáfora.

 

 

2.- Situación actual de la Ciencia de la Computación.

 

El intento de construir la Web Semántica a partir de la Lógica Descriptiva, la cual a su vez toma como base a la Lógica Simbólica o Lógica Matemática, es contradictorio e incoherente, pues aunque la lógica simbólica o matemática es consistente, sin embargo por definición sólo tiene sentido único o unívoco (significado único), lo cual es totalmente contradictorio con la semántica del lenguaje (natural) ,  la cual es de sentido ambigua o multívoca (varios significados).

 

Si lo que perseguimos es, por ejemplo, como una aplicación de la Web Semántica, cuando hacemos una búsqueda en Google, obtener unos pocos y precisos resultados, en lugar de los varios millones de ambiguos que se suelen obtener, tenemos que partir de otras herramientas más adecuadas al lenguaje, que tengan sentido multívoco y no sólo unívoco, y por lo tanto hay que construir nuevas herramientas en lugar de las ya existentes que tomen en cuenta dicha diferencia.

 

Tenemos que acudir a las Ciencias que estudian el lenguaje, y más aún, a las Ciencias que estudian el pensamiento y la mente humana, allí podemos encontrar las herramientas que buscamos, y proyectarlas, si es posible, sobre las Matemáticas, inventando, si es necesario, una nueva lógica menos parcial que la Lógica Formal, la Lógica Simbólica y/o matemática actual, que nos dé lugar a una nueva y distinta lógica que la Lógica Descriptiva actual, que constituye un completo y sonoro fracaso en semantizar  Internet.

 

Todo lo anterior tiene sentido si analizamos el marco en el que se ha desarrollado el conocimiento humano, desde inclusive la misma prehistoria. A grandes y fundamentales rasgos, y de forma también muy simplificada, lo único que nos diferencia verdaderamente de los animales es que somos “seres hablantes”, o lo que es lo mismo, que hacemos uso del lenguaje, y lo importante en nuestro caso es que hacemos uso del lenguaje como medio de comunicación, lo que nos ha servido para la transmisión de conocimientos a lo largo de toda la historia de la humanidad.

 

Lo único que verdaderamente a cambiado la manera de transmisión de lo exclusivamente oral (habla), ha sido la invención de la escritura, que ha permitido la perdurabilidad y acumulación sucesiva de los conocimientos, desde el papel de papiro y las tablas de arcilla, pasando por los libros manuscritos y llegando a  la invención de la imprenta por Gutenberg. Con esta última abaratamos sustancialmente los costes de transmisión del conocimiento, y posteriormente con el invento de Internet (y los ordenadores) disminuimos el coste de transmisión de los conocimientos a casi cero (al menos en los países desarrollados); así el conocimiento, por primera vez en la historia de la humanidad, está hoy día casi al alcance de todo el mundo y no unos pocos privilegiados, como por ejemplo en el medioevo.

 

Pero ahora si además lográramos “semantizar” Internet, donde “la Web Semántica es una visión de la información que sea comprensible por los ordenadores, de modo que puedan realizar mejor el tedioso trabajo de encontrar, compartir y combinar la información de la Web”, el ahorro ya no sólo sería una cuestión económica y monetaria, el ahorro además sería de economía del tiempo de pensamiento, o lo que es lo mismo del tiempo necesario para buscar y encontrar el conocimiento.

 

Por otra parte, además de la reseña histórica y en los rasgos fundamentales en la transmisión del conocimiento y su logro correspondiente, que es toda la civilización humana, hay que “enmarcar”, definir el marco en el cual se ha realizado el mismo en toda la historia de la humanidad, y no es un tema banal y sin importancia ni mucho menos, sino y de la mayor importancia. Hoy día hay ciencias específicas del estudio del conocimiento como la Epistemología, Gnoseología y otras. Pero aún así necesitamos más herramientas de otras áreas, como el Psicoanálisis, la Lingüística, etc. Lo cual fundamentaré a continuación.

 

 

3.- Los límites de las herramientas de la Ciencia: la Lógica Formal y la Experimentación.

 

Primeramente quiero decir que el enfoque “neurocientífico”, donde todo lo relacionado al ser humano tiene una explicación y aplicación directa exclusivamente  “neurológica” y/o “biológica”, cuando no y además “genética”, es incompleto y muy parcial. La hipótesis de trabajo fundamental de toda  la Ciencia actual es que la Mente y el Cerebro son iguales o equivalentes, y todo ello viene dado y ocasionado por la preponderancia y exclusividad en la Ciencia de los métodos estadísticos y estocásticos, cuantitativos (despreciando y excluyendo lo cualitativo), y lógicos formales, estos últimos aunque rigurosos sin embargo son incompletos y/o contradictorios tal y como nos muestran múltiples resultados y paradojas tanto en Matemáticas (Teoremas de Gödel), como en otras áreas de la Ciencia. Pero el ser humano con el lenguaje va mucho más allá de dicho reduccionismocientífico” (considerando a la Ciencia como un sistema  sólo y exclusivamente formal del pensamiento como así se la  define de forma ortodoxa y tradicional), el ser humano va mucho más allá de todo lo meramente biológico, tal y como demuestra el Psicoanálisis, en particular Freud y Lacan, y en la clínica.

 

Freud y Lacan descubrieron que hay un sujeto (persona) particular en cada ser humano, que le constituye (por ejemplo con su inconsciente), y que no es generalizable, y sobre todo en el sentido reduccionista de la Ciencia, sea la genética, sea la biología, sea  la química, sea la física, sea las matemáticas, y más ampliamente aún sea desde el punto de vista de la lógica formal; porque este sistema de pensamiento es por definición cerrado y completo sobre sí mismo, pero como es una aproximación solamente metonímica a lo real, carente de la metáfora del lenguaje y pensamiento humanos, es una aproximación muy pobre al final (a pesar de los frutos tecnológicos que ha obtenido nuestra civilización de ello), y ella nos ha llevado a sus propios límites en el conocimiento de lo real, lo cual es claramente visible en numerosas las paradojas matemáticas (Teoremas de incompletitud de Gödel), informáticas (Máquina de Turing y Problema de la parada –  Turing Machine & Halting Problem), e inclusive físicas (la teoría de la relatividad es  incompatible matemática y físicamente con la teoría de la mecánica cuántica -nuestras dos teorías fundamentales de la Ciencia y la tecnología y más cercanas al mundo real-).

 

 

Porque en toda la historia de la humanidad, tanto las ciencias, las exactas, como la física, química, matemática, como las otras, tales como la biología, la genética, la neurología, la medicina, las neurociencias, etc., y además todas sus aplicaciones en toda la tecnología pasada y presente, están todas ellas basadas en una lógica formal del pensamiento, y precisamente desde Gödel, encontramos numerosos ejemplos de paradojas…Todo lo cual nos muestra que estamos en los límites del conocimiento que nos puede aportar la lógica formal, la cual por definición está limitada solamente al sentido unívoco de la metonimia, y aunque combinada con la transmisión del conocimiento, ha permitido construir la actual civilización tecnológica, sin embargo estamos en un marco lógico limitado y constreñido a los límites de la lógica formal, y que como ya he dicho es la herramienta del pensamiento científico y la tecnología actuales por su propia definición y en toda su evolución histórica desde la época de la civilización griega.

 

Luego si la lógica formal, que es la base de todo pensamiento de toda la ciencia y la tecnología, puede llegar a ser “contradictoria”, y “limitada” o “incompleta” (Gödel), hay que dar un paso más allá y abrir el horizonte usando unas herramientas más completas y menos parciales, que podemos sacarlas de lo que ha descubierto el Psicoanálisis del ser humano y su constitución como sujeto en tres estructuras: una simbólica, otra imaginaria, y la conjunción de ambas con lo real nos permite apreciar “algo” de lo real, pero de una forma parcial y fragmentada, no hay una coherencia y reciprocidad entre lo que nuestra mente es capaz de llegar a captar, entender y/o comprender de lo real, con lo que verdaderamente es lo real.

 

Y es por esta falta de aceptación y de haberse dado cuenta de lo anterior es que el discurso de la ciencia y la tecnología es alienante, y se empiezan a encontrar plagadas de paradojas y contradicciones; y para colmo de males cuanto más se excluye la metáfora, lo singular y/o particular del sujeto, cuando más metonímico y cerrado se vuelve el discurso científico, tanto más se aleja de lo real, y un ejemplo vivido por todos actualmente y de forma muy cercana es la “crisis” económica mundial, en donde el sistema económico se ha devorado a sí mismo, y tampoco nos ha faltado tanto a la humanidad entera con la alienación de la guerra atómica, no hemos estado ni estamos tan lejos de devorarnos a nosotros mismos, por el “progreso” ilimitado de la ciencia y la tecnología; si no somos conscientes de sus límites y no nos hacemos cargo de ellos, lo real siempre está presente para surgir muy a nuestro pesar, y recordárnoslo y no de forma precisamente agradable.  No propongo un retorno a la naturaleza, que es  “mítico”, sino hacernos cargo de nuestra responsabilidad y asumir los límites del pensamiento científico y tecnológico, pero siendo un científico a mi vez de formación y vocación,  intento a su vez ir un paso más allá, y teniendo presentes estos límites, y mi limitación como la de todos para conocer lo real, intento encontrar nuevas formas de pensamiento aplicables a la ciencia, a la tecnología, y la informática en particular.

 

El peor error de la ciencia es creerse la única verdad fundamental y estar por encima de todo, y sin embargo lo real es tan complejo y tan complicado que requiere como mínimo una gran dosis de humildad, y es por ello que la ciencia actual es tan incapaz de ir más allá de su propio discurso y sus propios límites lógicos, y darse cuenta que mente y cerebro no son equivalentes y/o iguales; este es el gran error de la mayoría de los científicos actuales (Cientifismo) adornado y barnizado con la tecnología. Pero si al menos no se quiere aceptar como una verdad cierta y demostrada, siempre queda usarla como axioma, al igual que miles de conocimientos que en todas las áreas de la ciencia no son demostrables y sin embargo se dan por ciertos, y si mi axioma de que mente y cerebro no son lo mismo, funciona correctamente y nos lleva a resultados coherentes con el mundo real, lo daremos entonces por cierto.

 

 

4.- Los mecanismos fundamentales del Lenguaje y del Pensamiento.

 

Además de lo dicho en los párrafos anteriores, el Psicoanálisis también nos enseña que hay dos mecanismos fundamentales en el Lenguaje (Saussure) y el pensamiento humano, cuales son el desplazamiento o metonimia, y la condensación o metáfora (Freud), o lingüísticamente llamados metonimia y metáfora (Lacan).

 

La metonimia es el mecanismo fundamental del pensamiento científico (y matemático), y es lo que refleja la lógica formal y/o simbólica, donde el sentido ambiguo y multívoco del Lenguaje se ha diseccionado en un sentido preciso y unívoco para conseguir rigor, y consistencia por lo tanto, y excluir la contradicción, pero a costa de suprimir el otro mecanismo del pensamiento, cual es la condensación o metáfora, llegando paradójicamente a resultados contradictorios (véase paradojas…) o incompletos. Dentro de todo el sistema lógico formal ha funcionado permitiéndonos inventar y desarrollar nuestra presente civilización tecnológica, pero como ya he dicho, estamos encontrando su límites lógicos.

 

Ahora entonces, podemos dar un paso más adelante y más allá, con la incorporación de la metáfora a nuestro sistema lógico del pensamiento la ciencia y la tecnología, donde  la incorporación de la metáfora,  podría implicar la pérdida del principio de la generalidad, pero inclusive aún llegando a un sistema incompleto, seguramente tendría una representación más cercana y certera de lo real que con el sistema tradicional. Y ello es lo que me propongo hacer e intentar construir a partir de ahora…

 

Y si logro definir una lógica que además de la metonimia tenga incorporada también la metáfora, tendré incorporados entonces los dos mecanismos fundamentales del pensamiento y del lenguaje humano. Aún así siempre será un sistema parcial y limitado del conocimiento, pero tendrá como ya he dicho anteriormente una  mejor percepción de lo real que con la sola metonimia de la lógica simbólica.

 

La metáfora o condensación es lo que nos permite concluir y lo que nos introduce lo real como paso del tiempo,  mientras que en la lógica simbólica o matemática, lo real entra solamente a través de la cardinalidad de los Números.

 

 

5.- Estructuralismo.

 

El marco teórico y experimental en el que me muevo es  por lo tanto el “Estructuralismo”, comenzando desde Saussure con su estudio de la lengua, siguiendo a Jakobson y a Levis Strauss, y terminando en Freud y Lacan con el descubrimiento del inconsciente, el Psicoanálisis, y la constitución del  ser humano como sujeto.

 

No me propongo ni pretendo hacer una demostración puntillosa, perfecta, completa y rigurosa en el sentido clásico y ortodoxo de la ciencia, porque estaría usando la concepción de la lógica formal del pensamiento tradicional y ortodoxo de la ciencia y la tecnología,  aunque ello no significa renunciar a la coherencia o consistencia interna, aunque mi sistema no sea por definición ni completo, ni por lo tanto cerrado, sólo exigiré, si me es posible, la no contradicción, y sí pretendo a partir del marco teórico y experimental que he definido, encontrar, identificar, y/o inventar si es necesario, unas herramientas que me permitan analizar y estudiar los conocimientos no sólo de una forma metonímica de la lógica formal y/o simbólica, como hasta ahora ha sucedido en Informática e Internet, sino y además que pueda “semantizar” la Web, con el añadido de alguna herramienta que represente la metáfora, y el principio de condensación del lenguaje y el pensamiento humano, que es lo que nos acerca a lo real a través del paso del tiempo y la conclusión.

 

Este sistema lógico por lo explicado anteriormente sobre nuestra percepción de lo real, y también por definición, no será completo, e inclusive podría llegar a ser inconsistente, aunque procuraré hacerlo de tal manera que en lo posible lo evite, como lo es a veces lo mismo real, pero será una útil herramienta para manejar el conocimiento en Internet. No pretendo al final que los ordenadores lleguen a hablar, ya que mi teorema “El Límite de la Web Semántica”, dice que ello es imposible, pero todo lo que pueda caminar en dicho sentido será un avance sustancial para el manejo y transmisión del conocimiento a través de Internet.

 

Y este sistema lógico además de no ser completo implica entonces que no es cerrado, o sea que es abierto, y aunque parece imposible así construir algo “científico”, sin embargo toda la ciencia y la tecnología y sus descubrimientos están imbuidos en buena medida del mismo, ya que aunque hemos intentado formalizarlo con la lógica formal, sin embargo la relación de la ciencia y la tecnología con lo real, pasa a través de nuestra mente y sus mecanismos a veces inconsistentes, pero relacionados directamente con lo real, donde nadie es, desde allí es que pretendo buscar y encontrar este nuevo orden del pensamiento, donde todo no es completo y cerrado, pero donde todo si está conectado a lo real a través de la semantización del lenguaje informático e Internet.

 

Este es mi  proyecto, tal vez disparatado y grandioso, cuan imposible, pero como decía Lacan “lo real es lo único imposible” y a por ello voy…

 

 

6.- Conocimiento y Transmisión del Conocimiento.

 

El conocimiento es, por una parte, el estado de quien conoce o sabe algo, y por otro lado, los contenidos sabidos o conocidos que forman parte del patrimonio cultural de la Humanidad. Por extensión, suele llamarse también “conocimiento” a todo lo que un individuo o una sociedad dados consideran sabido o conocido.

 

Sin duda, las ciencias constituyen una de los principales tipos de conocimiento. Las ciencias son el resultado de esfuerzos sistemáticos y metódicos de investigación en busca de respuestas a problemas específicos y cuya elucidación procura ofrecernos una representación adecuada del mundo. Hay también, no obstante, muchos tipos de conocimiento que, sin ser científicos, no dejan de estar perfectamente adaptados a sus propósitos: el «saber hacer» en la artesanía, el saber nadar, etc.; el conocimiento de la lengua, de las tradiciones, leyendas, costumbres o ideas de una cultura particular; el conocimiento que los individuos tienen de su propia historia (saben su propio nombre, conocen a sus padres, su pasado), o aún los conocimientos comunes a una sociedad dada, incluso a la humanidad (saber para qué sirve una martillo, saber que el agua extingue el fuego).

 

Aun cuando en cada momento se genera información, sin embargo, la cantidad de conocimiento humano es necesariamente finita, amén de la dificultad de resolver problemas tales como el origen de la vida y del universo, la muerte, entre muchos otros.

 

Los conocimientos se adquieren mediante una pluralidad de procesos cognitivos: percepción, memoria, experiencia (tentativas seguidas de éxito o fracaso), razonamiento, enseñanza-aprendizaje, testimonio de terceros… Por su parte, la observación controlada, la experimentación, la modelización, la crítica de fuentes (en Historia), las encuestas, y otros procedimientos que son específicamente empleados por las ciencias, pueden considerarse como un refinamiento o una aplicación sistemática de los anteriores. Estos son objeto de estudio de la epistemología.

 

La importancia que atribuye al conocimiento distingue a la humanidad de las otras especies animales. Todas las sociedades humanas adquieren, preservan y transmiten una cantidad sustancial de saberes, notablemente, a través del lenguaje. Con el surgimiento de las civilizaciones, la acumulación y la difusión de conocimientos se multiplican por medio de la escritura. A través de la historia, la humanidad ha desarrollado una variedad de técnicas destinadas a preservar, transmitir y elaborar los conocimientos, tales como la escuela, las enciclopedias, la prensa escrita, las computadoras u ordenadores.

 

Esta importancia va de la mano con una interrogación sobre el valor del conocimiento. Numerosas sociedades y movimientos religiosos, políticos o filosóficos han considerado que el acrecentamiento del saber, o su difusión, no resultaban convenientes y debían limitarse. A la inversa, otros grupos y sociedades han creado instituciones tendentes a asegurar su preservación, su desarrollo y su difusión. Así mismo, se debate cuáles son los valores respectivos de diferentes dominios y clases de conocimientos.

 

En las sociedades contemporáneas, la difusión o al contrario, la retención de los conocimientos, tiene un importante papel político y económico, incluso militar; lo mismo ocurre con la propagación de pseudo-conocimientos (o desinformación). Todo ello contribuye a hacer del conocimiento una fuente de poder. Este papel explica en buena parte la difusión de la propaganda y las pseudociencias, que son tentativas por presentar como conocimientos, cosas que no lo son. Esto le confiere una importancia particular a las fuentes de supuestos conocimientos, como los medios masivos y sus vehículos, tales como Internet.

 

Y así como el invento de la escritura y de la imprenta trajeron aparejada una revolución y explosión en la transmisión del conocimiento, ahora el invento de Internet y el intento de construir una Web Semántica sobre ella, significaría una revolución y explosión exponencial en la transmisión del conocimiento a una escala sin precedente alguno respecto de toda la historia de la civilización, porque ya no sólo todo el conocimiento sería accesible a un coste económico ínfimo como ha dado lugar Internet, sino y además que el coste de tiempo de búsqueda del conocimiento, a través del filtro de la Web Semántica en Internet, se reduciría a casi cero.

 

Para lograr el objetivo de construir la Web Semántica, ya no es suficiente con mecanizar con una máquina la escritura caligráfica y/o “a mano”, que fue lo que hizo “Gutenberg”, ahora necesitamos “enseñarle” el lenguaje a las  computadoras u ordenadores, y para ello es necesario saber:

 

¿Cuál es la naturaleza del conocimiento?

 

¿Cómo representamos al conocimiento?

 

Y estas preguntas y sus respuestas no son fútiles ni de perogrullo, pues tenemos que ser conscientes que este es el paso crucial que representa la Web Semántica: ¡La incorporación del “Lenguaje” en las computadoras u ordenadores! Y aunque mi teorema “The limit of The Semantic Web” dice que ello es un objetivo imposible, sin embargo todo lo que nos acercáramos en dicho sentido nos daría nuevas herramientas de transmisión del conocimiento. Evidentemente si lográramos totalmente dicho objetivo estaríamos muy cerca de que las máquinas tuvieran “pensamiento humano”, que aunque inclusive teniendo dicha habilidad, nunca serían iguales o equivalentes a los seres humanos por su distinta imbricación en lo real.

 

 

7.- Naturaleza y Representación del Conocimiento.

 

La teoría clásica de la transmisión del conocimiento, que es la teoría de la Comunicación nos dice que hay un emisor y un receptor, que es lo que también usa la Psicología como ciencia; pero la novedad del descubrimiento del Psicoanálisis es que además del receptor citado, hay también un segundo receptor que es el mismo emisor también. Y el Psicoanálisis nos descubre al ser humano como un sujeto divido, y por lo tanto nos descubre también la ambivalencia del lenguaje y la inexistencia de un sentido unívoco del mismo, o lo que es lo mismo, del sin sentido del sentido del lenguaje, tal y como Wittgenstein lo indicó.

 

El Psicoanálisis nos explica que en la constitución del sujeto interviene un mundo simbólico, que es el lenguaje, un mundo imaginario, que es la participación que cada uno tiene en el lenguaje, y un mundo real, al que sólo se puede acceder a través precisamente de la representación del mismo que nos da la conjunción de lo simbólico y lo imaginario (lo Real, lo Imaginario y lo Simbólico).

 

Independientemente de todos los complejos detalles al respecto en la teoría Psicoanalítica, léase Freud y Lacan, lo importante es que el ser humano no percibe al mundo o a lo real tal cual es, sino y bajo el prisma de su propia constitución original de sujeto. Por ello la aprensión del conocimiento no es ilimitada, sino y limitada a la propia naturaleza del lenguaje humano ambivalente, lo que establece unos límites del conocimiento de lo real, y un buen ejemplo de ello es el intento del gran matemático Hilbert y otros, de construir un sistema matemático completo axiomáticamente y no contradictorio en sí mismo, pero como Gödel demostró con sus teoremas, si un sistema de conocimiento es completo, entonces es contradictorio, y viceversa, si un sistema es incompleto entonces no es contradictorio; también tenemos otros muchos ejemplos como la máquina de Turing y el Problema de la Parada. Al final lo que nos dice todo esto es que el lenguaje nos arrastra, inclusive a nuestro pesar, a sus propios límites, y si no tenemos esto en cuenta para construir la Web Semántica estamos condenados desde el principio al fracaso.

 

Luego la naturaleza del conocimiento está limitada por el lenguaje como transmisor y por la propia estructura Psicoanalítica de los seres humanos. Y lo que representa el conocimiento entre los seres humanos, no es el pensamiento, sino y su medio transmisor, o sea el lenguaje. Entonces lo importante no es tanto la naturaleza del conocimiento, sino y la naturaleza de su medio transmisor el lenguaje, del que ya he dicho que es ambivalente y no es de sentido unívoco, y esto es lo que tenemos que tener en cuenta para construir la Web Semántica.

 

Un apunte más, los mitos que solemos despreciar por considerarlos anacrónicos, no modernos y anticientíficos, precisamente los mitos son lo que nos indican los límites de nuestra percepción de lo real, los límites de nuestro pensamiento, y todos ellos tienen además en común el uso de la metáfora, la cual nos marca el transcurso de lo real como paso del tiempo en la conclusión, por eso en los seres humanos no existe el problema de la parada como en la Máquina de Turing. Yendo más lejos y abundando más aún, tanto Hegel como Kant consideraron al tiempo no categorizable, o lo que es lo mismo para el Psicoanálisis, el tiempo es una ilusión de nuestra percepción, el tiempo es una forma de representar lo real como una sucesión o transcurso de acontecimientos. Y la Lógica Descriptiva (que son una familia de lenguajes de la Representación del Conocimiento y esta a su vez está basada en la Lógica Formal) que es la base utilizada actualmente para construir la Web Semántica, no puede dar cuenta del lenguaje, pues para empezar le falta la metáfora, ya que es una lógica matemática, la cual es una lógica simbólica consistente, donde por lo tanto se considera que el sistema axiomático es completo, y sólo posee por definición y construcción la metonimia careciendo la metáfora, y por supuesto como muy bien nos demostró ya Gödel, nos lleva finalmente a contradicción, que es lo que hasta ahora pasa con todos los intentos de construir la Web Semántica desde esta base: ¡Han resultado un completo y sonoro fracaso a pesar de la inversión multimillonaria en medios!. Pero sigue faltando lo fundamental, la base adecuada para transmitir el conocimiento, que como he  dicho anteriormente necesita del lenguaje, y el lenguaje tiene dos estructuras fundamentales:

La metonimia y la metáfora. A la metonimia ya la tenemos en el lenguaje matemático, todo en él es un proceso  metonímico, y si en algún momento entra el tiempo es como una ficción, f(t) o función del tiempo, pero no hay un uso de metáfora que es lo que impediría el sin sentido del sólo sentido metonímico, no hay un uso de la metáfora que es lo que introduciría lo real y llevaría a la conclusión solucionando el problema de la parada de la máquina de Turing.

 

Luego lo que tenemos que introducir es la metáfora en los fundamentos de la matemática, la cual nos permitiría construir una lógica inconsistente, pero no por ello contradictoria, similar a la lógica del inconsciente humano como lo entiende el psicoanálisis. Si lográramos tal objetivo, tendríamos las herramientas adecuadas para implementar la Web Semántica en los ordenadores, y funcionaría.

 

Y este es mi gran reto: Inventar una lógica no consistente, que además de la metonimia presente en la lógica matemática consistente, tenga también incorporada la metáfora.

 

 

8.- ¿Porque no intentar enseñar a hablar y/o a pensar a una máquina? Limitaciones y fracasos de la aproximación de la Lógica Descriptiva.

 

Cuando estudiaba ciencias, a lo largo de mi carrera alguno de mis profesores físicos y matemáticos, y con mucha experiencia, me hicieron las dos siguientes observaciones:

 

La primera, que cuando uno se enfrenta a un problema a resolver, el problema no te pregunta cuanto sabes, para así acomodarse a tu conocimiento y poder resolverlo; esto parece una verdad de perogrullo y del más puro sentido común, pero en este caso es más cierto que nunca.

 

La segunda observación, fue que “usualmente” todos los problemas tienen una solución que está “implícita” si la pregunta del problema está bien formulada, o dicho de otra forma si el marco de referencia del problema está bien construido.

 

El recordar y reconsiderar ambas observaciones, me ha hecho cambiar totalmente mi perspectiva inicial para abordar y resolver el problema de construir la “Web Semántica”; y así en lugar de aplicar directamente mis esfuerzos en su resolución, con la profunda y densa formación tanto física como matemática que recibí en mi formación como científico, y que entiendo ha sido la actitud usual de trabajo de todos aquellos que han trabajado hasta ahora en este campo intentando resolver este problema, y hasta ahora con escaso éxito, decía entonces que he preferido alejarme del problema particular y específico, y tomar una visión más general y amplia del mismo (lo que se entiende salir del bosque para poder ver su conjunto y no a un solo árbol), y para ello como decía,  en lugar de intentar directa y rápidamente su solución, estoy dando un largo rodeo, y no absurdo ni carente de sentido de acuerdo a las dos “observaciones” iniciales anteriores, sino y formulando un marco adecuado y lo más completo posible en donde inscribir dicho problema de construir la “Web Semántica”.

 

Para ello empecé estudiando de donde se partía para construir la “Web Semántica” en informática, y se parte actualmente de la Lógica Descriptiva, la cual a su vez toma como base a la Lógica Simbólica o Lógica Matemática .

 

Entonces como sé de las limitaciones de la Lógica Simbólica o formal, reflejada en los teoremas de Gödel y en numerosas paradojas matemáticas y físicas, he ampliado mi campo de conocimiento de las ciencias puras a las Humanidades, y si de lo que se trata entonces es de enseñar a hablar a un ordenador (o lo que es equivalente que un ordenador entienda lo que decimos), estamos preguntando por el lenguaje, y por ello incorporo a la lingüística en el marco de referencia del problema.

 

Podría haber acudido también a la filosofía, pero el problema que encuentro en ella al igual que en las matemáticas puras, es que sólo contempla y usa en sus desarrollos la lógica formal como sistema único de pensamiento, y esta objeción me viene además dada por el Psicoanálisis, el cual demuestra que usando solamente la lógica propia del sujeto o persona es muy fácil engañarse y/o entrar en contradicción, y no quiero autoengañarme en el sentido más literal del término.

 

 

9.- El Pensamiento y el Lenguaje.

 

Pero además la razón de recurrir al Psicoanálisis viene dada también por la necesidad de responder a la pregunta sobré qué es la inteligencia y qué es el pensamiento, necesarios para intentar enseñar de alguna manera a pensar por sí misma a una máquina; y esta respuesta me la puede dar el Psicoanálisis en combinación con la lingüística, no la psicología ni la biología, ni la genética, pues todas ellas al igual que la filosofía sólo usan una aproximación a lo real única y exclusivamente  cuantitativa, estadística, y con una lógica exclusivamente formal, y aunque es el método ortodoxo y propio de la ciencia, la lógica formal tiene graves limitaciones tanto lógicas por una parte, porque si  nuestras hipótesis son completas el sistema entra en contradicción, y si nuestras hipótesis son incompletas entonces el sistema es consistente. Decía que el método ortodoxo de la ciencia tiene graves limitaciones, además de lo anterior, por la exigencia de comprobación experimental, pues no todo lo que existe o es real es verificable experimentalmente, de forma cuantitativa y estadística, y si no se acepta esta limitación de acceso a lo real de forma absoluta, al menos hay que tomarla como hipótesis de trabajo, pues lo que estoy diciendo es que nuestra aproximación ortodoxa del método científico es incompleta y no nos permite resolver el problema del que tratamos. Y más aún, la Mecánica Cuántica de las Ciencias Físicas nos dice que si realizamos cualquier experimento, estaremos a nuestro pesar y aunque así no lo quisiéramos, cambiando las condiciones de aislamiento del experimento en el momento que tomemos de él los resultados, debido a nuestra propia interacción con dicho experimento; por todo ello es una ilusión, fantasía y un gravísimo error, intentar construir un sistema lógico perfecto en ciencia, cuyo único y exclusivo referente y garantía sea la experimentación, y un buen ejemplo de ello es la paradoja del Gato de Schrödinger.

 

 

Según el Psicoanálisis, el ser humano tiene una realidad que va mas allá de lo meramente biológico, por ello el ser humano no sigue exclusivamente y se regula por los instintos como es propio por los animales en el campo de la biología, según el Psicoanálisis el ser humano se regula por su relación con el “Goce” (las Pulsiones o Trieb que no son Instintos) en el sentido técnico de dicho término en Psicoanálisis. La importancia de este término tan “desconocido” para el resto de la ciencia, es que marca precisa y exactamente la diferencia entre los seres humanos y todo el resto de seres  vivos. Y precisamente esta diferencia se refleja y se traduce en que somos seres hablantes, y eso nos ha permitido construir nuestra civilización, cultura y tecnología. Por ello, todo lo lejos que pudiera llegar en hacer pensar o hablar a una máquina, nunca sería equivalente a un ser humano, pues su imbricación en lo real es distinta: el ser humano siente (y piensa) por y con el “goce” y la máquina aunque pudiera pensar o hablar no podría sentir, ya que no tiene ninguna relación con la “falta” y el “goce”. Y el sentido del término sentir, me refiero técnicamente en Psicoanálisis, a la falta de no ser completo, al dolor, que experimenta todo ser humano, de una forma particular para cada sujeto o individuo, y no generalizable en el sentido experimental, estadístico y cuantitativo de la ciencia, pero aún así, que no lo pueda demostrar científicamente no significa ciertamente que no sea real; y este enlace específico y particular del ser humano con la existencia, modifica profundamente su relación con lo real, de tal manera que no es reproducible, no ya experimentalmente fuera de cada sujeto, sino y además que no podemos “crearlo” y/o “reproducirlo” en una máquina; por ello afirmo que aunque lográramos que una máquina hablara, y por extensión tuviera alguna dimensión de nuestro pensamiento, nunca sería completa en el sentido de además experimentar la falta en lo real que experimenta todo ser humano. Las únicas pruebas fehacientes en tal sentido se pueden extraer de la clínica y/o psicopatología del Psicoanálisis, y como para llegar a intentar entender algo de ello es necesario ser un erudito psicoanalítico además de haberse psicoanalizado, lo podemos tomar al menos como una hipótesis y/o premisa cierta de trabajo: Si todas las premisas y/o hipótesis que establezco son correctas, debería de poder encontrar la solución a nuestro problema, y por lo tanto son mis resultados concretos en solucionar dicho problema lo que dará efectividad a la existencia de mis hipótesis de trabajo.

 

 

10.- El Pensamiento no es lo mismo que el Lenguaje, y el Cerebro no es lo mismo que la Mente. ¿Qué es la Inteligencia?.¿Qué es el Pensamiento?.

 

Ahora y a continuación estoy intentando definir que es el pensamiento, y según el Psicoanálisis, y tal como lo entiendo y lo traduzco yo mismo, el pensamiento es la conjunción de lo “simbólico” (el lenguaje), lo “imaginario” (el acceso particular de cada sujeto al lenguaje) y lo real del sujeto mismo, todos los términos formulados en el sentido técnico estricto del Psicoanálisis (lo Real, lo Imaginario y lo Simbólico); y de esta conjunción surge el sujeto o ser humano, por ello entiendo que el lenguaje es el medio del pensamiento mismo, aunque no es el pensamiento. Y el pensamiento es lo mismo que la Inteligencia, por lo que defino también la Inteligencia como  la conjunción de lo “simbólico” (el lenguaje), lo “imaginario” (el acceso particular de cada sujeto al lenguaje) y lo real del sujeto mismo.

 

Luego no necesito llegar a profundizar más en el pensamiento y la inteligencia, ya que no puedo dar un acceso a lo real  a una máquina a través de la “falta” y/o dolor de la existencia propia de los seres humanos (que es lo que da lugar a la condensación y crea las metáforas), por lo que me quedo para los fines que perseguimos solamente con el lenguaje, que me aproximarán a alguna dimensión del pensamiento, no exactamente igual que la de los seres humanos, pero al menos más potente que la mera lógica formal, y de allí saco dos mecanismos del mismo que son los que tenemos que trasladar a nuestra máquina de alguna manera: La metonimia y la metáfora; entiendo que estos son los dos mecanismos fundamentales del lenguaje humano (y del pensamiento), y son los que tendríamos que intentar trasladar a nuestra máquina.

 

 

11.- Diferencia entre los animales y los seres humanos

 

Un comentario más acerca de la naturaleza del pensamiento y el resto de seres vivientes, o sea los animales: los animales sólo tienen acceso a lo imaginario (Estadio del Espejo), que no es el lenguaje (lo simbólico) en sí, y no acceden al lenguaje, porque, entiéndase, que el lenguaje no sólo es la capacidad de hablar y/o transmitir conocimientos, el lenguaje es la capacidad simbólica de aprehender lo real (el mundo), y ello hace que no tengan relación directa con el “Goce” y/o la “falta”, por lo que en gran y/o total medida sus comportamientos están regulados por los “Instintos”, y son factibles de experimentación, y medidas cuantitativas y estadísticas, ya que son mecanismos biológicos y genéticos, y heredados del comportamiento para la supervivencia; mientras que el acceso al lenguaje (lo simbólico) del ser humano, provoca una transformación de la mera naturaleza biológica del cerebro, haciendo surgir la “mente”, la cual está relacionada con el “goce” y la falta. Me reitero expresamente para que se entienda bien: si no hay acceso al lenguaje tampoco hay acceso al “goce” y la “falta”, pero me pregunto: ¿puede haber algún tipo de acceso al lenguaje sin acceso al “goce” y o la “falta”?, y la respuesta la tenemos en los mismos ordenadores, ya que tienen acceso parcialmente al lenguaje, a través de la lógica simbólica, pero no tienen acceso al dolor ni al goce. Por todo ello incorporar el otro mecanismo del pensamiento y/o el lenguaje, la metáfora, a una máquina es muy complicado, porque no sólo tendríamos que construir una estructura lógica que además de la metonimia propia de la lógica simbólica, incorporase además un mecanismo metafórico en la lógica formal, pero eso surge en el ser humano de su relación con la falta y el goce, luego si no puedo incorporar el goce y la falta en una máquina, tampoco puedo incorporar la metáfora, y por lo tanto no podría enseñarle a hablar ni tampoco a pensar.

 

 

12.- Conclusión: Imposibilidad del Lenguaje y Pensamiento humano en las Máquinas, y el fracaso de la Inteligencia Artificial.

 

Luego por todo lo anterior, mi programa es fallido y no es posible enseñar el lenguaje y/o el pensamiento humanos a una máquina, ya que al carecer de relación alguna con el “goce”, no es posible introducir además de la metonimia, el otro mecanismo del lenguaje y del pensamiento, cual es la metáfora. Esta última surge de los procesos de elaboración del inconsciente y es la conclusión de ellos, luego el acceso a lo real como paso del tiempo está dado por la conclusión que nos permite construir la metáfora, y como ya he dicho anteriormente, podemos construir máquinas, pero no podemos construirlas con acceso al “goce”, por lo que es imposible lograr que hablen y/o puedan pensar tal y como lo hacen los seres humanos. Y respecto de los animales, sin embargo tendría que decir, que todos los animales tienen acceso a la “falta” de la existencia, pero al no poder simbolizar, carecen de los mecanismos del pensamiento humano, cuales son la metáfora y la metonimia, y por ello no pueden construir un lenguaje, lo que a su vez les permitiría construir un sistema simbólico que pudiera crear cultura, civilización y tecnología, cual es el caso de los seres humanos. Los animales tienen solamente una estructura imaginaria (estadio del espejo), y sólo son un cuerpo biológico, pues no hay separación del mismo como hacen los seres humanos por su estructura simbólica además de la imaginaria; luego los animales sí tienen “cerebro” pero no tienen “mente”.

Inteligencia es la capacidad de entender, asimilar, elaborar información y utilizarla adecuadamente, y la inteligencia es una facultad de la mente pero no del cerebro, pero para ello es necesario tener acceso al lenguaje, pues el medio de la inteligencia es el sistema simbólico (Lacan), luego si no podemos dar acceso al lenguaje a las máquinas, ¡todo el proyecto de la Inteligencia Artificial es un proyecto fallido!.  ¡No es posible hacer hablar (y por extensión pensar) a los ordenadores construyendo una Web Semántica!

La pregunta final que me surge de toda esta elaboración es entonces: ¿Por qué los seres humanos (que somos animales también) hemos podido hablar construyendo un mundo simbólico que aprehende lo real en un orden simbólico y sin embargo el resto de los seres vivos (los animales) no han podido hacerlo?, o de otra manera: ¿Por qué si tanto los animales como los seres humanos estamos relacionados con lo real de una forma biológica similar (aunque con muy pequeñas diferencias genéticas propias de las diferencias entre todas las especies vivientes) sin embargo el hombre ha accedido a la relación con el “goce” (que le ha permitido hablar) mientras que los animales sólo se han quedado en el estadio imaginario o del espejo y no tienen relación con el “goce”? Y estoy casi absolutamente seguro que las respuestas a ellas no provienen de la biología, la genética, ni de ninguna de las neurociencias…

 

 

13.- Teorema:  “El Límite de la Inteligencia Artificial”.

 

 

Probaré que no existe en absoluto la construcción de la Inteligencia Artificial, que no se puede hacer desde las máquinas, y que no depende ni del hardware ni del software utilizado.

   

Matizando la cuestión, el límite de la Inteligencia Artificial está dado no por las máquinas y/o sistemas biológicos que se pudieran usar, sino porque la Lógica con que se intenta construir carece del uso del tiempo, ya que la lógica formal es puramente metonímica y carece de la metáfora, y eso es lo que marcan los teoremas de Gödel, la tautología final de toda construcción y /o lenguaje metonímico (matemático), que lleva a contradicciones.

  

Esta lógica consistente es opuesta a la lógica inconsistente que hace uso del tiempo, propia del insconciente humano, pero el uso del tiempo está construido en base a la falta, no en torno a lo positivo sino en base a negaciones y ausencias, y eso es imposible de reflejar en una máquina porque la percepción de la falta necesita de la conciencia de sí mismo que se adquiere con la ausencia.

   

El problema está en que pretendemos construir un sistema inteligente que sustituya nuestro pensamiento, al menos en las búsquedas de información, pero la particularidad de nuestro pensamiento humano es el uso del tiempo el que permite concluir, por eso no existe en la mente humana el problema de la parada o detención del cálculo, o lo que es lo mismo ausencia del momento de concluir. 

 

Así que todos los esfuerzos encaminados a la Inteligencia Artificial están destinados al fracaso a priori si lo que se pretende es prolongar nuestro pensamiento humano en las máquinas, ellas carecen de discurso metafórico, pues sólo son una construcción Matemática, que siempre será tautológica y metonímica, ya que además carece del uso del tiempo que es lo que lleva al corte, la conclusión o la “Parada”. 

 

Como demostración vale la del contraejemplo, o sea que si suponemos, que es posible construir la Inteligencia Artificial, como una inteligencia con capacidades similares a la inteligencia humana, que tiene el uso del tiempo, entonces si ese es un teorema general, con un solo Contraejemplo se viene abajo, y el contraejemplo está dado en el caso particular de la Máquina de Turing y el “Problema de la Parada”. 

 

Luego no se cumple la condición necesaria y suficiente del teorema, nos queda la condición necesaria que es que si un lenguaje tiene el uso del tiempo, carece de lógica formal, usa la lógica inconsistente y por lo tanto no tiene el “Problema de la Parada”, esa es condición necesaria para la Inteligencia Artificial, pero no suficiente y por ello ninguna máquina, sea de Turing, computador o dispositivo aleatorio como un cuerpo negro en física, puede alcanzar el uso de un lenguaje que no sea el matemático con la Paradoja de la Parada, consecuencia de los teoremas de Gödel. La construcción de la Inteligencia Artificial es un problema Indecidible. 

 

 

 

14.- Teorema:  De la lógica a la ontología: “El Límite de la Web Semántica”.

 

 

Probaré que no existe en absoluto la construcción de la Web Semántica, que no se puede hacer desde las máquinas, y que no depende ni del hardware ni del software utilizado.

   

Matizando la cuestión, el límite de la Web Semántica está dado no por las máquinas y/o sistemas biológicos que se pudieran usar, sino porque la Lógica con que se intenta construir carece del uso del tiempo, ya que la lógica formal es puramente metonímica y carece de la metáfora, y eso es lo que marcan los teoremas de Gödel, la tautología final de toda construcción y /o lenguaje metonímico (matemático), que lleva a contradicciones.

  

Esta lógica consistente es opuesta a la lógica inconsistente que hace uso del tiempo, propia del insconciente humano, pero el uso del tiempo está construido en base a la falta, no en torno a lo positivo sino en base a negaciones y ausencias, y eso es imposible de reflejar en una máquina porque la percepción de la falta necesita de la conciencia de sí mismo que se adquiere con la ausencia.

   

El problema está en que pretendemos construir un sistema inteligente que sustituya nuestro pensamiento, al menos en las búsquedas de información, pero la particularidad de nuestro pensamiento humano es el uso del tiempo el que permite concluir, por eso no existe en la mente humana el problema de la parada o detención del cálculo, o lo que es lo mismo ausencia del momento de concluir. 

 

Así que todos los esfuerzos encaminados a la Web Semántica están destinados al fracaso a priori si lo que se pretende es prolongar nuestro pensamiento humano en las máquinas, ellas carecen de discurso metafórico, pues sólo son una construcción Matemática, que siempre será tautológica y metonímica, ya que además carece del uso del tiempo que es lo que lleva al corte, la conclusión o la “Parada”. 

 

Como demostración vale la del contraejemplo, o sea que si suponemos, que es posible construir la Web Semántica, como un lenguaje con capacidades similares al lenguaje humano, que tiene el uso del tiempo, entonces si ese es un teorema general, con un solo Contraejemplo se viene abajo, y el contraejemplo está dado en el caso particular de la Máquina de Turing y el “Problema de la Parada”. 

 

Luego no se cumple la condición necesaria y suficiente del teorema, nos queda la condición necesaria que es que si un lenguaje tiene el uso del tiempo, carece de lógica formal, usa la lógica inconsistente y por lo tanto no tiene el “Problema de la Parada”, esa es condición necesaria para la Web Semántica, pero no suficiente y por ello ninguna máquina, sea de Turing, computador o dispositivo aleatorio como un cuerpo negro en física, puede alcanzar el uso de un lenguaje que no sea el matemático con la Paradoja de la Parada, consecuencia de los teoremas de Gödel. La construcción de la Web Semántica es un problema Indecidible. 

 

 

 

 

15.- Bibliografía y conceptos útiles.

 

 

Si usted lee los noventa y dos primeros post (a continuación más abajo) de Last Post Index & View del Blog Meta Internet, entonces puede estar seguro que entiende y conoce todos los conceptos necesarios para comprender este trabajo. 

También puede usar la búsqueda del mismo blog o buscarlos en Wikipedia en lengua inglesa y luego pinchar en idioma Español:

¡Siento las molestias pero WordPress no me ha permitido publicar los noventa y dos conceptos en Español!, ya que cuando lo hice en Inglés: 

¡Me amenazaron desde WordPress con cerrarme y clausurarme el blog con la excusa de que no había ningún trabajo original y tampoco he podido publicar en ninguna revista científica porque me dicen que no lleva matemáticas!, ¿y los teoremas por reducción al absurdo qué son entonces?

¡Y me tienen bloqueados todos los tags porque me dicen que tengo demasiados! Es cierto que tengo más de 50.000 links de enlaces pero no hay nada en su contrato de servicio que lo prohíba expresamente…

 

Computability theory (computer science) 
Computer science 
Computational complexity theory 
Semantic Web’s Terms & Companies & People & Organizations 
Information 
From Logic to Ontology: The limit of “The Semantic Web”  
Computation 
Computational problem 
Computer 
Mathematical object 
Algorithm 
Computer programming 
Programming language 
Mathematical proof 
Mathematical logic 
Syntax 
Operator Grammar 
Recursive categorical syntax 
Semantics 
Grammar 
In theoretical computer science, a formal grammar (sometimes simply called a grammar) is 
Ferdinand de Saussure 
Metaphor 
Language of thought 
Intuitionistic logic 
Propositional calculus 
First-order logic 
Second-order logic 
Infinitary logic 
Interface metaphor 
Metonymy 
Morphology (linguistics) 
Ferdinand de Saussure 
Phonology 
Language 
Natural language 
Formal language 
Theory of computation 
Formal semantics 
Specification language 
Pragmatics 
Meaning (linguistics) 
Polysemy 
Synchronic analysis 
Historical linguistics (also called diachronic linguistics) is the study of language change. 
Roman Jakobson 
Computational linguistics 
Discourse analysis 
Phonetics 
Sentence (mathematical logic) 
In theoretical computer science, a formal grammar (sometimes simply called a grammar) is a set of formation rules that describe which strings formed from the alphabet of a formal language are syntactically valid within the language. 
Chomsky hierarchy 
First-order logic is a formal logic used in mathematics, philosophy, linguistics, and computer science. 
Second-order logic 
Structuralism 
Ludwig Wittgenstein 
Claude Lévi-Strauss 
Jacques Derrida 
Jacques Lacan 
Metonymy 
Literal 
Literal and figurative language 
Trope (linguistics) 
Emphasis 
Hyperbole 
Parable 
Allegory 
Simile 
Synecdoche 
Irony 
Antanaclasis 
Rhetoric 
Semiotics 
Figure of speech 
Philosophy of language 
Sense and reference 
Connotation 
Denotation 
Reference 
Extension (semantics) 
Intension 
Intensional logic 
Web Ontology Language 
Ontology (the term in philosophy) 
Ontology (information science) 
Semantic Web 
Description logic 
Knowledge representation 
“Minds, Machines and Gödel: A Retrospect” 
Minds, Machines and Gödel — the original paper 

Read Full Post »

Teorema:  “El Límite de la Inteligencia Artificial”.

 

 

Probaré que no existe en absoluto la construcción de la Inteligencia Artificial, que no se puede hacer desde las máquinas, y que no depende ni del hardware ni del software utilizado.

   

Matizando la cuestión, el límite de la Inteligencia Artificial está dado no por las máquinas y/o sistemas biológicos que se pudieran usar, sino porque la Lógica con que se intenta construir carece del uso del tiempo, ya que la lógica formal es puramente metonímica y carece de la metáfora, y eso es lo que marcan los teoremas de Gödel, la tautología final de toda construcción y /o lenguaje metonímico (matemático), que lleva a contradicciones.

  

Esta lógica consistente es opuesta a la lógica inconsistente que hace uso del tiempo, propia del insconciente humano, pero el uso del tiempo está construido en base a la falta, no en torno a lo positivo sino en base a negaciones y ausencias, y eso es imposible de reflejar en una máquina porque la percepción de la falta necesita de la conciencia de sí mismo que se adquiere con la ausencia.

   

El problema está en que pretendemos construir un sistema inteligente que sustituya nuestro pensamiento, al menos en las búsquedas de información, pero la particularidad de nuestro pensamiento humano es el uso del tiempo el que permite concluir, por eso no existe en la mente humana el problema de la parada o detención del cálculo, o lo que es lo mismo ausencia del momento de concluir. 

 

Así que todos los esfuerzos encaminados a la Inteligencia Artificial están destinados al fracaso a priori si lo que se pretende es prolongar nuestro pensamiento humano en las máquinas, ellas carecen de discurso metafórico, pues sólo son una construcción Matemática, que siempre será tautológica y metonímica, ya que además carece del uso del tiempo que es lo que lleva al corte, la conclusión o la “Parada”. 

 

Como demostración vale la del contraejemplo, o sea que si suponemos, que es posible construir la Inteligencia Artificial, como una inteligencia con capacidades similares a la inteligencia humana, que tiene el uso del tiempo, entonces si ese es un teorema general, con un solo Contraejemplo se viene abajo, y el contraejemplo está dado en el caso particular de la Máquina de Turing y el “Problema de la Parada”. 

 

Luego no se cumple la condición necesaria y suficiente del teorema, nos queda la condición necesaria que es que si un lenguaje tiene el uso del tiempo, carece de lógica formal, usa la lógica inconsistente y por lo tanto no tiene el “Problema de la Parada”, esa es condición necesaria para la Inteligencia Artificial, pero no suficiente y por ello ninguna máquina, sea de Turing, computador o dispositivo aleatorio como un cuerpo negro en física, puede alcanzar el uso de un lenguaje que no sea el matemático con la Paradoja de la Parada, consecuencia de los teoremas de Gödel. La construcción de la Inteligencia Artificial es un problema Indecidible.

Read Full Post »

Teorema:  De la lógica a la ontología: “El Límite de la Web Semántica”.

 

 

Probaré que no existe en absoluto la construcción de la Web Semántica, que no se puede hacer desde las máquinas, y que no depende ni del hardware ni del software utilizado.

   

Matizando la cuestión, el límite de la Web Semántica está dado no por las máquinas y/o sistemas biológicos que se pudieran usar, sino porque la Lógica con que se intenta construir carece del uso del tiempo, ya que la lógica formal es puramente metonímica y carece de la metáfora, y eso es lo que marcan los teoremas de Gödel, la tautología final de toda construcción y /o lenguaje metonímico (matemático), que lleva a contradicciones.

  

Esta lógica consistente es opuesta a la lógica inconsistente que hace uso del tiempo, propia del insconciente humano, pero el uso del tiempo está construido en base a la falta, no en torno a lo positivo sino en base a negaciones y ausencias, y eso es imposible de reflejar en una máquina porque la percepción de la falta necesita de la conciencia de sí mismo que se adquiere con la ausencia.

   

El problema está en que pretendemos construir un sistema inteligente que sustituya nuestro pensamiento, al menos en las búsquedas de información, pero la particularidad de nuestro pensamiento humano es el uso del tiempo el que permite concluir, por eso no existe en la mente humana el problema de la parada o detención del cálculo, o lo que es lo mismo ausencia del momento de concluir. 

 

Así que todos los esfuerzos encaminados a la Web Semántica están destinados al fracaso a priori si lo que se pretende es prolongar nuestro pensamiento humano en las máquinas, ellas carecen de discurso metafórico, pues sólo son una construcción Matemática, que siempre será tautológica y metonímica, ya que además carece del uso del tiempo que es lo que lleva al corte, la conclusión o la “Parada”. 

 

Como demostración vale la del contraejemplo, o sea que si suponemos, que es posible construir la Web Semántica, como un lenguaje con capacidades similares al lenguaje humano, que tiene el uso del tiempo, entonces si ese es un teorema general, con un solo Contraejemplo se viene abajo, y el contraejemplo está dado en el caso particular de la Máquina de Turing y el “Problema de la Parada”. 

 

Luego no se cumple la condición necesaria y suficiente del teorema, nos queda la condición necesaria que es que si un lenguaje tiene el uso del tiempo, carece de lógica formal, usa la lógica inconsistente y por lo tanto no tiene el “Problema de la Parada”, esa es condición necesaria para la Web Semántica, pero no suficiente y por ello ninguna máquina, sea de Turing, computador o dispositivo aleatorio como un cuerpo negro en física, puede alcanzar el uso de un lenguaje que no sea el matemático con la Paradoja de la Parada, consecuencia de los teoremas de Gödel. La construcción de la Web Semántica es un problema Indecidible.

Read Full Post »

See the Complete Report with images at:

http://www.isoco.com/pdf/Semantic_Wave_2008-Executive_summary.pdf

 

 

Project10X’s 

 

Semantic Wave 2008 Report: Industry Roadmap to Web 3.0 & Multibillion Dollar Market Opportunities

EXECUTIVE SUMMARY October 2008

Mills Davis, Managing Director, Project 10X http://www.project10x.com

202-667-6400

Project10X’s

 

Semantic Wave 2008 Report:

Industry Roadmap to Web 3.0 and Multibillion Dollar Market Opportunities

Dear reader, Project10X is pleased to announce publication of a comprehensive, ground-breaking 720-page study of semantic technologies and their market impact entitled

Semantic Wave 2008: Industry Roadmap to Web 3.0 and Multibillion Dollar Market Opportunities. This report charts the evolution of the internet from Web 2.0 to Web 3.0, the emergence of semantic technologies for con­sumer and enterprise applications, and the growth of multi-billion dollar markets for Web 3.0 products and services. It is must reading for investors, technology developers, and enterprises in the public and private sector who want to better understand semantic tech­nologies, the business opportunities they present, and the ways Web 3.0 will change how we use and experi­ence the internet for pleasure and profit.

Enjoy this free summary of Project10X’s Semantic Wave 2008 Report, and be sure to…Order your copy of the Semantic Wave 2008 Report. See ordering information on page 27!

Mills Davis Washington, DC USA

Executive Summary

2


 

What is the semantic wave?

A tidal wave of four Internet growth stages.

The semantic wave embraces four stages of in­ternet growth. The first stage, Web 1.0, was about connecting information and getting on the net. Web 2.0 is about connecting people — putting the “I” in user interface, and the “we” into Webs of social participation. The next stage, Web 3.0, is starting now. It is about representing meanings, connecting knowledge, and putting these to work in ways that make our experience of internet more relevant, useful, and enjoyable. Web 4.0 will come later. It is about connecting intelligences in a ubiq­uitous Web where both people and things reason and communicate together.

Executive

Project10X’s Semantic Wave 2008 Report tells the

Summary

story of Web 3.0. Over the next decade, Web 3.0

3

will spawn multi-billion dollar technology markets that will drive trillion dollar global economic ex­pansions to transform industries as well as our experience of the internet. The Semantic Wave 2008 report examines drivers and market forces for adoption of semantic technologies in Web 3.0 and maps opportunities for investors, technology developers, and public and private enterprises.

Below:

What is the Evolution of the Internet to 2020?

 


 

How is Web 3.0 different from previous stages of internet evolution?

Knowledge computing drives new value creation and solves problems of scale and complexity.

The basic shift occurring in Web 3.0 is from infor­mation-centric to knowledge-centric patterns of computing. Web 3.0 will enable people and ma­chines to connect, evolve, share, and use knowl­edge on an unprecedented scale and in new ways that make our experience of the internet better.

Web growth continues to accelerate. Dimensions of net expansion include communications band­width, numbers of people connected, numbers and kinds of devices that are IP-aware, numbers of systems and applications, quantities of informa­tion, and types of media. As the internet expands, needs world-wide are outstripping the capacities and capabilities of current information and com-

Below:

Web 3.0 — The Internet Grows a Knowledge Plane

Executive

munications technologies (ICT) and architectures.

Summary

Information-centric patterns of computing have

4

reached the limit of what they can provide to cope with problems of scale, complexity, security, mobil­ity, rich media interaction, and autonomic behavior.

Web 3.0 will solve these problems and lay a foun­dation for the coming ubiquitous Web of connect­ed intelligences. The Web 3.0 solution, simply put, is to give the internet a knowledge space. In the following topics we identify key characteristics of this knowledge space, sketch out how its seman­tic computing works, and examine how Web 3.0 knowledge-centric patterns of computing drive new value creation.

 

What semantic technologies will power Web 3.0?

Digital tools that represent and reason about meanings, theories, and know-how separately from documents, data, and program code.

The key notion of semantic technology is to rep­resent meanings and knowledge (e.g., knowledge of something, knowledge about something, and knowledge how to do something, etc.) separately from content or behavior artifacts, in a digital form that both people and machines can access and interpret. As a platform, Web 3.0 will embrace all semantic technologies and open standards that can be applied on top of the current Web. It is not restricted just to current Semantic Web standards.

Web 3.0 will encompass a broad range of knowl­edge representation and reasoning capabilities including pattern detection, deep linguistics, on­tology and model based inferencing, analogy and reasoning with uncertainties, conflicts, causality,

Below:

and values. The figure below depicts a spectrum of progressively more capable forms of knowl­edge representation that spans tag collections (or folksonomies); to dictionaries, taxonomies and thesauri; to schemas and conceptual models; to

Executive

ontologies and theory-based logics, to axiologies

Summary

(value-based reasoning), and entirely new uses

5

barely tapped. Reasoning requires knowledge representation. We choose more powerful forms of representation to enable more powerful kinds of reasoning and problem solving. The integra­tion of social Web and semantic technologies in Web 3.0 allows new synergy that lowers the cost of data and knowledge creation, and raises the computational value of gathering it.

From Searching to Knowing — Spectrum of Knowledge Representation and Reasoning Capabilities

Strong Semantics

Weak Semantics

 

How will Web 3.0 systems connect data, services and applications?

First, they’ll integrate knowledge about these applications, content sources, and process flows. Then they’ll execute it.

In order to connect systems, integrate information, and make processes interoperable, the first step is to integrate the knowledge about these sys­tems, content sources, and process flows. Today, people do this offline, manually. This approach does not scale. In Web 3.0 both people and appli­cations will connect knowledge in real time using automated and semi-automated methods. Web

3.0 approaches will scale.

Semantically modeled, machine executable knowledge lets us connect information about people, events, locations, times — in fact, any concept that we want to — across different con­tent sources and application processes. Instead of disparate data and applications on the Web, we get a Web of interrelated data and interoperable applications. Recombinant knowledge is repre­sented as concepts, relationships and theories that are sharable and language neutral. Semantic technologies provide the means to unlock knowl­edge from localized environments, data stores, and proprietary formats so that resources can be readily accessed, shared, and combined across the Web.

In today’s Web, each device has an operating system (OS) that provides walled access to its content through a hierarchical file system. Limita­tions of OS platforms are spurring development of semantic desktops to provide meaning-based, concept-level search, navigation, and integration across varied content sources and applications found on PCs and other devices.

Applications running on OS platforms provide access to the information they have knowledge of, but do not combine easily with others, unless such link-ups have been planned and agreed to in advance by developers. The need to overcome

these limitations of OS platforms including the need for human labor to research and code inter­faces is fueling interest in:

Web-tops — platforms spanning multiple OSs connected over the internet,

Mash-ups — two or more data sources or works combined to become a new data source or work,

Context-aware mobility — dynamic compo­sition and personalization of services across devices, networks, locations, and user cir­cumstances, and

Semantic service-oriented architectures — using machine-interpretable descriptions of policies and services to automate discovery, negotiation, adaptation, composition, invoca­tion, and monitoring of Web services.

In Web 3.0, these sorts of capabilities will become intrinsic features of the knowledge space’s se­mantic fabric, and no longer mere one-off hacks or the result of mutually exclusive platform and service plays.

Executive Summary

6

Where do the shared meanings and knowledge in Web 3.0 come from?

From both people and machines. And, to start with, from the Web itself.

Knowledge exists in many forms in todays Web. All computing processes represent some type of knowledge in some way in order to process infor­mation, for example: knowledge about how infor­mation is organized in order to search it; rules that tell a computer program how to make a decision; or action steps to take to complete a task.

The problem is that existing knowledge on the Web is fragmented and difficult to connect. It is locked in data silos and operating system file system formats. Knowledge is hidden in object-oriented black boxes and layers of stack architecture. It is embedded in program code and squirreled away in proprietary algorithms.

Web 3.0 changes this. The convergence of pat­tern discovery, deep linguistics, and ontological symbolic reasoning technologies make it feasible to automatically extract embedded and intrinsic knowledge from todays Web. Evolution of seman-

Executive

tic social computing will enable communities to

Summary

create, curate, and share knowledge in human

7

readable and machine executable forms.

The diagram below contrasts knowledge-centric and information-centric patterns of computing. In Web 3.0, end-user development will increase as computers help generate intelligent services and manage application functionality, security, ver­sioning and changes autonomically.

Below:

What Are Knowledge-centric Patterns of Computing?

Pattern Information-centric        Knowledge-centric

Who develops software Producers and enterprises are developers. Prosumers (consumers) and peer-to-peer producers (groups, behaviors, knowledge communities) do it themselves. structures, and content?

How are different Separate technologies for documents (data, Unified platforms handle documents, models & behaviors expressions of knowledge content), models, and behaviors. Closed seman-interchangeably, including pictures & natural language. Massive handled? tics, hardwired. open local semantics, available everywhere.

Where do knowledge & logic At design time, from people.  At new release, At design time, from people. in the system come from? from people. No run-time learning. At run time, from user input and from system learning.

What are the patterns for No system learning. System learns and evolves from use by people. system learning? No autonomics. Machine observes & learns from environment. New knowledge requires new version of code. Autonomics — self* learning and adaptation.

What are the patterns for Process-centric, cycle time intensive. Direc-Data-centric, storage-intensive. Semantic operators. Sequence knowledge representation tional algorithms and procedures. Embedded neutral graph reasoning. External declarative knowledge struc­and computation? knowledge — logic, structure locked in code. tures. Semantic and value-based reasoning with full spectrum

Relational operators. First-order logic. of logic.

What are the patterns for              Predefined configurations. Adaptive, self-optimizing configurations. Ubiquitous semantic

underlying infrastructure?             Black-box objects. Webs, meshes & grids. Transparent semantic agents. Multi-core, Stacks. multi-threaded processors. Federated stores and processes. Single processors. Semantic ecosystems and social autopoeisis (self-organization, Local stores. planning, etc.).

What are the patterns for Separate role-based security for each system. Autonomic identity and security with concept level granularity security? Black boxes, lack of transparency, and human across all IP entities, relationships, services, etc. Building block intervention make network security problematic. transparency = security by design.

What are patterns for Manual change management and versioning. Automated change management & versioning. Autonomic intel­versioning and change Human architected. Central planning. Brittle. lectual property, emergent behaviors, self-managed. Robust. management?

 

What new capabilities will Web 3.0 knowledge-centric computing enable?

Systems that know, learn, and can reason as humans do.

When knowledge is encoded in a semantic form, it becomes transparent and accessible at any time to a variety of reasoning engines.

Previously, if knowledge was in a document or set of documents, then it was fixed when published in a form only humans could read. Or, if knowledge was encoded in a computer program, then it was opaque and hidden in objects or in procedures that were fixed at design time, and hence a “black box” so that the logic is not visible to any other process that had not been pre-programmed with common knowledge.

In Web 3.0, knowledge lives, evolves and is stored transparently (as “glass boxes”). It can be used, validated, added to, combined with other knowl­edge at run time by multiple systems. This enables a system to “learn” to do things that the system designer did not anticipate. This is an important shift from IT as it has been practiced until now.

Web 3.0 systems will be designed so that they get better with use and scale. Their architectures will enable learning. One way is that their users can evolve them by adding knowledge and capa­bilities to them. Another way is that systems may learn by themselves how to respond to changes in their environments.

2007, 2008 Copyright MILLS•DAVIS. All rights reserved

Report Summary & Prospectus

8

How will Web 3.0 overcome the fragmentation of information, processes, and application functionality?

By interrelating the myriad forms of language that people and machines used to encode thoughts, share meanings, and connect knowledge.

Until now, knowledge on the Web has been ex­pressed in separate forms such as documents, imagery, patterns, structural models, and pro­gram code. Computers that produced these arti­facts mostly have been used as electronic pencils, with little (if any) understanding of what the writing meant, and no ability to interpret other ways of expressing the same idea (such as through graph­ics, images, video, computer languages, formal languages, and other natural languages, etc.).

In Web 3.0, the myriad forms of language in which knowledge is expressed begin to get interrelated, connected, and made interchangeable with each other, for example: combining knowledge from one or more sources, or from one or more formats, or from one time and place with other contexts.

To illustrate, policies are typically written out as documents. But, this same knowledge can be modeled as a data structure or as decision rules. Also, policies can be hard coded into software objects and procedures. Using semantic technol­ogies we can represent, connect, and manage the

knowledge from all of these different forms at the level of concepts, and maintain each artifact. This sort of “transemantic” or multi-lingual capability leads to computer systems that can:

Capture knowledge from different sources such as sensors, documents, pictures, graph­ics, and other data and knowledge resources,

Interpret and interrelate these different ways of expressing ideas with each other,

Share what they know with people and ma­chines, and

Re-express, and communicate what they know in different contexts, information for­mats, and media.

Below:

How Do Humans Encode Thoughts and Share Knowledge and Meaning?

Executive Summary

9

Cuadro de texto: Natural language 	Documents, speech, stories  Visual language 	Tables, graphics, charts, maps, illustrations, images  Formal language 	Models, schema, logic, mathematics, professional and scientific  	notations  Behavior language 	Software code, declarative specifications, functions, algorithms  Sensory language 	User experience, human-computer interface

Source: Project10X

How does Web 3.0 tap new sources of value?

By modeling knowledge, adding intelligence, and enabling learning.

The value drivers for Web 3.0 are huge. The table below highlights five categories of challenges, se­mantic capabilities that address these needs, and the value drivers associated with these semantic capabilities. Semantic technologies have the po­tential to drive 2-3 order of magnitude improve­ments in capabilities and life cycle economics through cost reductions, improved efficiencies, gains in effectiveness, and new functionalities that were not possible or economically feasible before now.  New sources of value include:

1. Value from knowledge modeling — Semantic models are sharable, recombinant, and execut­able. To model first, then execute the knowledge reduces time, risk, and cost to develop and evolve services and capabilities. Semantic model-based approaches achieve added development econo­mies through use of (a) shared knowledge models

as building blocks, (b) autonomic software tech­niques (goal-oriented software with self-diagnos­tic and self-management capabilities such as self-configuration, self-adaptation, self-optimization, etc.), and (c) end-user and do-it-yourself life-cycle development methodologies (rather than requiring

Executive

intervention by IT professionals). Knowledge that

Summary

is sharable, revisable, and executable is key ap­

10

plications where facts, concepts, circumstances, and context are changing and dynamic.

2. Value from adding intelligence — A working definition of intelligence is the ability to acquire, through experience, knowledge and models of the world (including other entities and self), and use them productively to solve novel problems and deal successfully with unanticipated circum­stances. A key new source of value is adding in­telligence to the user interface, to applications,

Below:

How Do Semantic Technologies Drive Value?

Cuadro de texto: Challenges 	Semantic Capabilities 	Value Drivers  1. Development: Complexity, labor-intensity, solution time, cost, risk 	Semantic automation of “business need-to¬capability-to-simulate-to-test-to-deploy-to¬execute” development paradigm 	Semantic modeling is business rather than IT centric, flexible, less resource intense, and handles complex development faster.  2. Infrastructure: Net-centricity, scalability; resource, device, system, information source, communication intensity 	Semantic enablement and orchestration of transport, storage, and computing resources;  IPv6, SOA, WS, BPM, EAI, EII, Grid, P2P, security, mobility, system-of-systems 	In the semantic wave, infrastructure scale, complexity, and security become unmanageable without semantic solutions.  3. Information: Semantic interoperability ofinformation formats, sources, processes, and standards; search relevance, use context 	Composite applications (information & applications in context powered by semantic models), semantic search, semantic collaboration, semantic portals 	Semantic interoperability, semantic search, semantic social computing, and composite applications & collaborative knowledge management become “killer apps.”  4. Knowledge: Knowledge automation, complex reasoning, knowledge commerce 	Executable domain knowlege-enabled authoring, research, simulation, science, design, logistics, engineering, virtual manufacturing, policy and decision support 	Executable knowledge assets enable new concepts of operation, super-productive knowledge work, enterprise knowledge superiority, and new intellectual property.  5. Behavior: Systems that know what they’re doing 	Robust adaptive, autonomic, autonomoussystem behaviors, cognitive agents, robots, games, devices, and systems that know,  learn, and reason as humans do 	Semantic wave systems learn and reason as humans do, using large knowledgebases, and reasoning with uncertainty and values as well as logic.

and to infrastructure. An intelligent system or agent is a software program that learns, cooper­ates, and acts autonomously. It is autonomic and capable of flexible, purposeful reasoning action in pursuit of one of more goals. An intelligent user interface (UI) knows about a variety of things such as system functionality, tasks users might want to do, ways information might be presented or pro­visioned. Intelligent UIs know about the user (via user models), which enables tailoring system be­havior and communications. Adding intelligence helps users perform tasks, while making working with the computer more helpful, and as invisible as possible. As a result, systems do more for the user, yield more relevant results with less effort, provide more helpful information and interaction, and deliver a more enjoyable user experience. Adding intelligence can produce ten-fold gains in communication effectiveness, service delivery, user productivity, and user satisfaction.

 

3. Value from learning — Machine learning is the ability of computers to acquire new knowledge from past cases, experience, exploration, and user input. Systems that learn increase in value during their lifetime. Their performance improves. They get better with use, and with scale. In addition to new or improved capabilities, systems that learn during operation may improve system life cycle economics by (a) requiring less frequent upgrad­ing or replacement of core software components, and (b) enabling new incremental extensions to revenue models through add-on knowledgeware and software-as-a-service.   

 

4. Value from semantic ecosystem — An ecosys­tem is a self-sustaining system whose members benefit from each other’s participation via sym­biotic relationships (positive sum relationships). Principle drivers for semantic infrastructure and ecosystem include the economics of mobility, scale, complexity, security, interoperability, and dynamic change across networks, systems, and information sources. These problems are intrac­

 

table at Web scale without semantics. The corol­lary is the need to minimize human labor needed to build, configure, and maintain ultra-scale, dy­namic infrastructure.

Semantic ecosystems that emerge in Web 3.0 will consist of dynamic, evolve-able systems consist­ing of ensembles (societies) of smart artifacts. This means a shift in design focus from static, perfor-

Executive

mance-driven design to: (a) design for robustness

Summary

& resilience; (b) design for uncertainties; (c) design

11

for distributed, autonomous pervasive adaptation;

(d) design for organically growing systems; and (e) design for creating self-evolving services.

Current systems including the internet are de­signed to operate with predefined parameters. Change spells trouble. Mobility is a problem. Se­mantic ecosystems will be future-proof, able to grow dynamically, evolve, adapt, self-organize, and self-protect. Web 3.0 will lay the foundations for ubiquitous Web including autonomic intel­lectual property, Web-scale security and iden­tity management, and global micro-commerce in knowledge-based assets. The value vector for semantic infrastructure is 2-4 orders of magnitude gains in capability, performance, and life cycle economics at Web scale.

 


 

Semantic Wave Technology Trends

The Semantic Wave 2008 Report examines over 100 application categories & more than 270 companies pursuing semantic products and services.

Individual

A broad range of semantic technologies will power Web 3.0. The technology section of Project10X’s Semantic Wave 2008 Report examines Web 3.0 technology themes from multiple perspectives. It shows how innovations in each area will drive development of new categories of products, ser-I E

nx

vices, and solution capabilities. Technology per-t t e

e

spectives include:

rr ii oo

Semantic user experience — concerns how I rr experience things, demands on my attention, my personal values.

Semantic social computing — concerns our lived culture, intersubjective shared values, & how we collaborate and communicate.

Above:

Semantic Technology Perspectives

Semantic applications, and things — con­cerns objective things such as product struc­ture & behavior viewed empirically.

Semantic infrastructure — concerns interobjec­tive network-centric systems and ecosystems.

Semantic development — concerns Webs of meanings, systems that know and can share what they know, and architectures of learning, which make semantic solutions different.

Semantic Wave 2008 spotlights trends in each of these areas and examines role of semantic tech­nologies in over 100 application categories. An ad­dendum to the report surveys more than 270 com­panies that are currently researching and developing semantic wave technology products and services.

Executive Summary 12

Technology Trend 1—Semantic User Experience

Intelligent user interfaces drive gains in user productivity & satisfaction.

The Semantic Wave 2008 Report explores the impact of semantic technologies on user experi­ence. User experience is the sum of interactions and overall satisfaction that a person has when using a product or system. Semantic user expe­rience is the addition intelligence and context-awareness to make the user interface more adap­tive, dynamic, advisory, proactive, autonomic, and autonomous, and the resulting experience easier, more useful, and more enjoyable.

Attention is the limited resource on the internet — not disk capacity, processor speed or bandwidth. Values shape user experience. Simplicity, versa­tility and pleasurability are the new watchwords. Context is king. Mobility, wireless, and video are the new desktop. Seamless services anytime, any where. Users are prosumers, creating content, participating in peer production, taking control of consumption. Trends in user interface (UI) are towards personal avatars; context-aware, immer­sive 3D interaction; and reality browsing, and aug­mented reality. 

Identity is information used to prove the individu­ality of a person as a persisting entity. The trend is towards semantic avatars that enable individuals to manage and control their personal information, where ever it is across the net. Context is infor­mation that characterizes a situation of an entity,

person, object, event, etc. Context-awareness is using this knowledge to sense, predict, interpret, and respond to a situation.

Web 3.0 browsers will understand semantics of data, will broker information, and automatically in­terpret metadata. The emerging display landscape (depicted above) will be semantically connected and contextually aware. It will unify displaying and interacting, and will personalize experience. Re­ality browsing is querying the physical world live and up close from anywhere. Augmented reality is bringing the power of the Web to the point of deci­sion, by combining real world and computer gen­erated data. Semantic rich internet applications will exploit higher bandwidth content dimensionality, context sensitivity, and expanded reasoning power for dynamic visualization and interaction in the UI.

2007, 2008 Copyright MILLS•DAVIS. All rights reserved

Report Summary & Prospectus 13

 

 

Technology Trend 2 — Semantic Social Computing

Collective knowledge systems become the next “killer app.”

The Semantic Wave 2008 Report explores the role of semantic technologies in the evolution of so­cial computing. Social computing is software and services that support group interaction. Semantic social computing adds an underlying knowledge representation to data, processes, services, and software functionality.

Semantic technologies will enrich many catego­ries social applications including instant messag­ing, e-mail, bookmarking, blogging, social net­working, wikis, user driven “communitainment”, and do-it-yourself applications and services. For example, semantic technologies will enable social computing applications to provide concept-based rather than language-based search and naviga­tion across most standard applications, docu­ment types, and file formats, regardless where these resources reside on the net, be it a desktop, mobile device or server, etc.

A key trend in Web 3.0 is toward collective knowl­edge systems where users collaborate to add content, semantics, models, and behaviors, and where systems learn and get better with use. Col­lective knowledge systems combine the strengths of social Web participation with semantic Web

integration of structure from many sources. Key

Report Summary &

features of Web 3.0 social computing environ-

Prospectus

ments include (a) user generated content, (b) hu­

14

man-machine synergy; (c) increasing returns with scale; and (d) emergent knowledge. Incorporating new knowledge as the system runs is what en­ables Web 3.0 systems to get smarter.

Technology Trend 3 — Semantic Applications

New capabilities, concepts of operation, & improved life cycle economics.

The Semantic Wave 2008 Report examines the emerging role of semantic technologies in more than 100 consumer and enterprise application categories. Semantic applications put knowledge to work. Areas covered in the report include: (a) semantics in commercial off the shelf software such as ERP, CRM, SCM, PLM, and HR; (b) on-tology-driven discovery in law, medicine, science, defense, intelligence, research, investigation, and real-time document analysis; (c) risk, compliance and policy-driven processes such as situation as­sessment, exceptions, fraud, case management, and emergency response; (d) knowledge-intensive processes such as modeling & simulation, acquisi­tion, design, engineering, and virtual manufactur­ing; (e) network & process management such as diagnostics, logistics, planning, scheduling, secu­rity, and event-driven processes; (f) adaptive, auto­nomic, & autonomous processes such as robotics and intelligent systems; and (g) systems that know, learn & reason as people do such as e-learning, tu­tors, advisors, cognitive agents, and games

Key trends toward semantic applications are:

From knowledge in paper documents, to digi­tal documents, to knowledge (semantic mod­els), to semantic agents;

Executive

From static and passive functional processes,

Summary

to active, adaptive, and dynamic processes,

15

to autonomic to autonomous processes;

From programmer encoded interpretations of meaning and logic at design time, to com­puter interpretation of meaning and logic at run time;

From smart program code to smart data;

From search to knowing; and

From reasoning with SQL to first order logic, to complex reasoning with uncertainty, con­flict, causality, and values for the purposes of discovery, analysis, design, simulation, and decision-making.

2007, 2008 Copyright MILLS•DAVIS. All rights reserved

 

 

Technology Trend 4 —  Semantic Infrastructure

A knowledge space solves problems of scale, complexity and security.

Cuadro de texto: The Semantic Wave 2008 Report examines the 	Transport moves from dial-up, to broad band,  role of semantic technologies in infrastructure. In¬	to video bandwidth. Mobility is the new plat¬ frastructure is the basic features of a system such 	form, and semantic technologies are needed  as networks, facilities, services, and installations 	to deliver seamless, customizable, context  that are needed for the functioning of internet-	aware services, any time, any where.  based communities. By adding a knowledge di¬	 mension to this underlying structure, semantic 	Processor technology goes parallel, multi- infrastructures provide solutions to problems of 	core, multi-threaded, and specialized.  Integration, interoperability, parallelism, mobility, 	 ubiquity/pervasiveness, scale, complexity, speed, 	Displays become a landscape of interoper¬ power, cost, performance, autonomics, automa¬	able devices of differing characteristics, sizes  tion, intelligence, identity, security, ease of pro-	and capabilities. Boundaries between virtual  gramming, and ease of use. 	and real dissolve in planned and unplanned  	ways. The trend is towards immersive experi- Information and communications technology (ICT) 	ence and reality browsing.  has reached the limits of what it can do with stack 	 architecture, object orientation, first-order logic, 	Longer term, the trend is towards every thing  and fixed, embedded knowledge (i.e., in code) 	becoming connected, somewhat intelligent,  with no learning, or with architected development 	somewhat self-aware, socially autopoeitic, and  versus emergent solutions. Semantic technolo¬	autonomically capable of solving problems of  gies provide the first path forward to overcome 	complexity, scale, security, trust, and change  the limitations of these existing approaches. 	management.  Trends toward semantic infrastructure include: 	 Computing diverges into declarative (brain) 	 and procedural (sensory organs) lines of de¬	 velopment. 	 Storage moves from flat files, to centralized 	 “bases” with relational operators, to federated 	 “spaces” with native semantic operators. The 	 trend is toward high-performance semantic 	 processing at scale and representations that 	 support nearly unlimited forms of reasoning.

Report Summary & Prospectus 16

Technology Trend 5 —  Semantic Development

Semantic modeling reduces time, risk, and cost to develop solutions.

The Semantic Wave 2008 Report explores trends in methodology and practices for semantic soft­ware and solution development.

A development life cycle is a conceptual model used in project management that describes the stages involved in a system or application devel­opment project, typically involving a discovery, feasibility, and planning stage through mainte­nance of the completed application. Conventional development methodologies include the waterfall model; rapid application development (RAD); the fountain model; the spiral model; build and fix; and synchronize-and-stabilize, etc.

Semantic solution development departs from conventional development. It deals with: (a) Webs of meanings and knowledge from diverse prove­nance, (b) systems that know and can share what they know, and (c) architectures of learning.

Semantic solutions emerge from a techno-social collaboration that also supports do-it-yourself development. The process is business and user driven versus IT and developer driven. The col­lective knowledge developed is both human and machine interpretable. Some different skills are re­quired including domain experts, semantic mod­elers, and semantic user experience designers.

Knowledge is extracted and modeled separately from documents, schemas, or program code so it can be managed across these different forms of expression, shared between applications, aligned and harmonized across boundaries, and evolved. For example, requirements, policies, and solution patterns are expressed as semantic models that execute directly and can be updated with new knowledge as the application runs.

The semantic solution development process is model-driven and knowledge-centric and rather than procedural and document based. Semantic solutions may have zero code. Build cycles are fast, iterative, non-invasive. Semantic solution development typically entails less time, cost, and risk to deploy, maintain, and upgrade.

2007, 2008 Copyright MILLS•DAVIS. All rights reserved

Executive Summary 17

 


 

Semantic Wave Markets

The Semantic Wave 2008 Report sizes markets and presents 150 case studies in 14 horizontal and

vertical market sectors.

The market section of Project10X’s Semantic Wave 2008 Report examines the growth of supply and demand for products, services and solutions based on semantic technologies. Specifically, the report segments and discusses semantic wave markets from horizontal and vertical perspec­tives:

Horizontal market sectors include: Research and development; Information and communi­cation technologies; Consumer internet; and Enterprise horizontal.

Vertical market sectors include: Advertising, content, entertainment; Defense, intelligence, security; Civilian agencies, state & local gov­ernment; Education, training; Energy, utilities; Financial services; Health, medical, pharma, life sciences; Information & communications tech­nology; Manufacturing; Professional services; Transportation, logistics; and other services.

Horizontal and vertical market sectors each pres­ent multi-billion dollar opportunities in the near- to mid-term. The study sizes markets. It presents 150 case studies in 14 horizontal and vertical sectors that illustrate the scope of current market adoption.

Semantic technologies are spreading out and pen­etrating into all areas of information and commu­nications technology, all economic sectors, and most categories of application. There are power­ful economic drivers. Development and adoption is already global in scope. Market momentum is building. The sweet spot for cross-over and mar­ket acceleration is only about a year out.

 

Source: Project10X

Above:

What Are Semantic Wave Markets?

Executive Summary 18

 

Market Trend 1—Research & Development

Semantic technologies are a significant and growing focus in global R&D.

 

The maturation of R&D investments made in the public and private sectors over the past decade is one reasons why semantic technologies and Web

3.0 are entering mainstream markets. The dia­gram below highlights semantic technology areas which are receiving international R&D funding es­timated to be more than $2B per year through the end of the decade.

Public sector investment has been significant and is growing in North America, Europe, and Asia. Countries recognize the strategic impor­tance of semantic technologies in the emerging global knowledge economy and are seeking com­petitive advantage through public sector invest­ments. Historically, it is worth noting that public sector investment to develop ICT technologies has a strong track record, having spawned $-bil­lion industries repeatedly over the past 40 years.

The Semantic Wave 2008 Report provides sum­marized examples of public sector R&D programs from organizations such as: DARPA, Air Force Re­search Laboratories, NASA, and NSF.

Private sector firms accelerate semantic technol-

Executive

ogy R&D. Commercial investment is now global.

Summary

Private sector motivations for R&D are nearer­

19

term and focus on return on investment. Semantic Wave 2008 predicts that both consumer-internet and enterprise-oriented investments in semantic technology will increase significantly through the end of the decade.

Below:

What Are Semantic R&D Trends?

Market Trend 2—Information & Communication Technology

ICT semantic technology markets will exceed $10 billion in 2010.

The global ICT market is $3.5 Trillion and will be $4.3 Trillion by 2010. Growth in the E7 countries (China, Brazil, Korea, India, Russia, Mexico, and Taiwan) is currently around 20-percent per year. The market for semantic technologies is currently a tiny fraction of global ICT spending. But, growth is accelerating.

Below:

Who Are the Semantic Technology Suppliers?

Semantic Wave 2008 profiles more than 270 com­panies that provide semantic technology R&D, services and products. Most are small, boutique firms, or start-ups. But, a significant number of established ICT companies have entered the se­mantic space. Overall, we estimate markets for semantic technologies in ICT will exceed $10 B in 2010.

Executive Summary

20

Cuadro de texto: 7 Degrees 	Collexis 	Franz Inc. 	Kalido 	Mind-Alliance 	Readware 	Sun Microsystems  42 Objects 	Composite Software 	Fujitsu Laboratories 	Kapow Technologies 	Systems 	Rearden Commerce 	SunGard  Above All Software 	Computas AS 	General Dynamics IT 	Kennen Technologies 	Mindful Data 	Recommind 	Sybase  Abrevity 	Computer Associates 	Generate 	Kirix 	Miosoft 	Red Hat 	Synomos  Access Innovations 	Connotate 	GeoReference Online 	Knewco 	Modulant 	Reengineering 	SYS Technologies  Active Navigation 	Content Analyst 	Gist 	Knova Software 	Modus Operandi 	Reinvent Technology 	System One  Adaptive Blue 	Contextware 	Global 360 	Knowledge Based 	Molecular 	Revelytix 	TACIT  Adobe Systems 	Contivo 	Google 	Sys. 	Mondeca 	RuleBurst 	Talis  Aduna 	Convera 	Graphisoft 	Knowledge 	Moresophy 	SAIC 	Taxonomy Strategies  Agent Logic 	Copernic 	Groxis 	Computing 	Motorola Labs 	SaltLux 	TÉMIS Group  Agent Software 	Correlate 	Gruppometa 	Knowledge Concepts 	mSpace 	Sandpiper Software 	Teradata  Agilense 	Cougaar Software 	H5 	Knowledge 	Mulgara.org 	SAP 	Teragram  Alitora 	Coveo 	hakia 	Foundations 	Nervana 	SAS Institute 	TextDigger  Altova 	Crystal Semantics 	HBS Consulting 	Knowledge Media 	Netbreeze 	SchemaLogic 	Textual Analytics  Amblit Technologies 	CureHunter 	Hewlett-Packard 	Inst. 	Netezza 	seekda 	Textwise  Apelon 	Cycorp 	Hypertable 	Knowledge Systems, AI 	NetMap Analytics 	Semandex Networks 	The Brain  Arisem 	Dapper 	i2 	Kosmix 	NeOn 	Semansys 	Technologies  Articulate Software 	Dassault Systemes 	IAC Search & Media 	Kroll Ontrack 	NeurokSoft 	Technologies 	The METADATA Co.  AskMe 	Data-Grid 	iCognue 	Kyield 	NextIT 	Selmantech, Inc. 	Thetus  AskMeNow 	Day Software 	IBM 	Language&Computing 	Nielsen BuzzMetrics 	Semantic Arts 	Thinkmap  Aspasia 	Deepa Mehta 	ILOG 	Language Computer 	Noetix 	Semantic Discovery 	Thomson Reuters  Astoria Software 	Design Power 	Image Matters 	Corp. (LCC) 	Nokia 	Semantic Edge 	ThoughtExpress  AT&T Research 	DERI 	Imindi 	LEGO Americas 	Northrop Grumman 	Semantic Insights 	TopQuadrant  ATG 	Design Power 	iMorph 	Leximancer 	Novamente 	Semantic IQ 	TripIt  Attensity 	DFKI 	Infolution 	Lexxe 	nStein 	Semantic Knowledge 	Troux Technologies  Autonomy 	DiCom Group 	Inform Technologies 	Liminal Systems 	Numenta 	Semantic Light 	True Knowledge  Axontologic 	Digital Harbor 	Informatica 	Linguamatics 	NuTech Solutions 	Semantic Research 	True Thinker  BAE Systems 	Digital Reasoning Sys. 	Information Extraction 	Linguistic Agents 	Ontology Online 	Semantic Search 	Ultimus  BBN Technologies 	Discovery Machine 	Sys. 	LinkSpace 	Ontology Works 	Semantic Solutions 	Ultralingua  Be Informed 	DreamFactory 	InforSense 	Lockheed Martin 	Ontomantics 	Semantic System 	Versatile Info Systems  BEA Systems 	Software  	InfoSys 	LogicLibrary 	ontoprise 	SemanitiNet 	Vignette  Biowisdom 	EasyAsk 	Innodata Isogen 	Lymba Corporation 	Ontos 	Semantra 	Vitria  Boeing Phantom 	Effective Soft 	InnoRaise 	Magenta Technology 	OntoSolutions 	Semaview 	Vivísimo  Works 	Ektron 	Intellidimension 	Makna Semantic Wiki 	OpenLInk Software 	SemperWiki 	Vivomind Intelligence  Bouvet 	EMC Corporation 	Intelligent Automation 	Mandriva 	Open Text 	SenseBot 	WAND  Bravo Solution 	Empolis 	Intellisemantic 	Mark Logic 	Oracle 	SERENA Software 	WebLayers  Business Semantics 	ENDECA 	Intellisophic 	Match4J 	PeoplePad 	SiberLogic 	Whatever  Cambridge Semantics 	Enigmatec 	Interwoven 	MatchMine 	PhraseTrain 	Siderean Software 	WiredReach  Celcorp 	Enterra Solutions 	Invention Machine 	Matrixware 	Pier39 	Sierra Nevada Corp 	Wordmap  Celtx 	Entrieva 	Iona Technologies 	McDonald Bradley 	Polymeta 	SilkRoad Technology 	XSB  Centriguge Systems 	Epistemics 	iQser 	Mendix 	Powerset 	Silobreaker 	Yahoo!  CheckMI 	Evri 	Irion Technologies 	MetaCarta 	Pragatic 	Sirma Group–Ontotext 	Zepheira  Circos 	Exalead 	Iron Mountain 	MetaDolce 	Profium 	Smart Desktop 	ZoomInfo  Cisco Systems 	Expert System 	iSOCO 	MetaIntegration 	Progress Software 	Smart Info-System 	Zotero  Clarabridge 	ExpertMaker 	ISYS Search Software 	Metallect 	Project10X 	SmartLogic 	ZyLAB  CognIT a.s 	Factiva 	Janya 	Metatomix 	Proximic 	Soar Technology 	 Cognition 	Fair Isaac 	JARG Corporation 	Metaview 360 	PTC 	Software AG 	 Technologies 	Fast Search & Transfer 	Jiglu 	MetaWeb 	Qitera 	Sony 	 Cognium Systems 	Fortent 	Joost 	Technologies 	Quigo 	Spock 	 Cohereweb 	Fortius One 	JustSystems 	Métier 	Radar Networks 	SRA International 	 Collarity 	FourthCodex 	K2 	Microsoft Corporation 	Raytheon 	SRI International 	Source: Project10X

Market Trend 3—Consumer Internet

Consumer content, entertainment & advertising dollars will build Web 3.0.

Semantic Wave 2008 examines the growth of in­ternet and mobile advertising, content and enter­tainment to 2012, as well as the growth of inter­net based commerce and consumer electronics. Driving forces in consumer internet markets are huge. The increasing the flow of advertising dol­lars, content, entertainment, and commerce to the internet will fuel the build-out of Web 3.0.

Consumers account for 25 percent of global ICT spending. One billion people around the globe now have access to the internet. Nearly 50 per­cent of all U.S. Internet access is via always-on broadband connections. Mobile devices outnum­ber desktop computers by a factor of two. By 2017, telecom industry projects are that there will be 5 billion mobile internet users and more than 7 billion internet-enabled devices. The internet is now a mass medium for content, entertainment,

and advertising as well as knowledge exchange and business efficiency. It is growing rapidly and it is taking market share (i.e., money) away from other media.

Semantic technologies are strategic for consumer

Executive

internet markets as enabling technology, and as a

Summary

means for competitive differentiation. We’re in the

21

midst of a “user revolution.” Context, social nets, & relationships are king. Consumers are prosumers. They create content, engage in peer production, participate in usites (sites with user created content), enjoy themselves with communitainment (users si­multaneously communicating and participating in entertainment activities with each other as part of social networks. The “long tail” makes semantic ad­vertising into a killer app — a better way to target, match and bring together buyer and seller.

2007, 2008 Copyright MILLS•DAVIS. All rights reserved

 

Market Trend 4—Enterprise Horizontal

Middleware, services, processes, search, and collaboration go semantic.

As shown in the diagram below, just about ev­erywhere one can look in an enterprise, someone somewhere is applying semantic technologies to some problem. Drivers of enterprise business val­ue are all strong— new capability, life cycle ROI, performance, and strategic edge.

Semantic Wave 2008 examines enterprise mar­kets for semantic technologies including twelve categories of commercial-off-the-shelf software (COTS) packages that are estimated to represent a combined software product and service reve­nue of more than $160 billion in 2010. The report projects the transition of these market segments from conventional to semantic COTS technolo­gies. Amongst the first tier of large ICT technology providers, areas that are being targeted first are related to the internal stack, or plumbing for suites of applications because these changes make few

demands on customer while establishing a se­mantic application framework that developer can use as a foundation. Service oriented architecture becomes semantic SOA. Changes that impact application concept of operations, and user inter­face come next.

Executive

SummaryAlso, enterprise software has a long tail. There are

22

an estimated 56 million firms worldwide, includ­ing 1.5 million with more than 100 employees, and around 80,000 businesses with more than 1,000 employees. The transition to semantic software technologies will facilitate mass customization of commercial-off-the-shelf solutions enabling soft­ware vendors to address more levels of the mar­ket with sustainable solutions.

Below:

What Semantic Technologies Are Being Employed in Enterprise?

Risk management, regulatory  compliance, content integration, question answering,

Business Management

Defense, Intelligence, sense-making, data &

fraud detection, money laundering, reasoning, inference, anti-terrorism, security,

real-time auditing; crisis and emergency business intelligence; decison support

management: system, network outages; case management; business continuity

Mergers & acquisitions,  data & systems integration, enterprise architecture,,

ontology-driven information systems, semantic interoperability, semantic web services, virtual data center,

Customer service automation, customer PLM platform

self-service, personalized information on-demand, 360°-view of customer, field service operations, integrated CRM

Supply chain integration, design, sourcing optimization, integration & interoperation, CPFR

Supplier

Customer

Support

Input management, capture, classification, tagging, routing,

 

 

 

Output management, enterprise

data & content consolidation,

publishing platform , auto-generation

data cleaning

of content & media, auto-language versioning, cross-media, semantic portals

Discovery, aggregation, auto-classification, meta-search, federated query, smart search, intelligent domain research.

Dynamic planning, scheduling,, routing, optimization. Adaptive systems; Autonomic systems; Autonomous products/services

Design advisors, simulation-based acquisition; virtual manufacturing

Source: Project10X

Production Operations

2007, 2008 Copyright MILLS•DAVIS. All rights reserved

Market Trend 5—Industry Verticals

150 case studies make the case that semantic wave markets are here.

Semantic Wave 2008 examines semantic technol­ogy adoption in industry verticals. The report sum­marizes 150 case examples in fourteen industry sectors. The table below highlights some of the se­mantic application case examples in eight vertical industry sectors. Each industry has both horizontal

and vertical needs. Applications are diverse. Nearly three-fourths of the case examples come from pri­vate industry. A little more than one-fourth are public sector. Collectively, they make a strong case that se­mantic wave markets are here and now.

Below:

What Are Industry Vertical Markets for Semantic Technologies?

Executive Summary 23

MARKET SECTOR EARLY ADOPTER ORGANIZATIONS SEMANTIC APPLICATION CASE EXAMPLES

ADVERTISING, CONTENT BBC; Bertelsmann; Dentsu; Disney;                    Digital asset management; rich media interoperability; content mining; mapping of concepts

& ENTERTAINMENT Elsevier; Associated Press; NZZ                across content libraries; accelerated creation of new derivative information products; identification and extraction of information types, such as chemical compounds and classes for science; rapid development of custom news feeds; skills curation and collaboration

EDUCATION Industry; universities; governments; E-learning; simulation learning tools (“learning by doing”); semantic collaboration environments; & TRAINING ETH Zurich digital library services; rapidly customized coursework content; automated scoring; publication streamlining

ENERGY & UTILITIES    Air Liquide America; Air Products; BP; Energy exploration; processing real-time remote sensor data; power distribution through GE Infrastructure Water & Process “common information models”; multi-agent technologies; corporate portals across departments Technologies; Shell Oil; Statoil and disciplines; adaptive data warehousing; multi-format document access; knowledge-based

service reporting; proposal management; integrating information across operating units; product and market segmentation; scenario validation

FINANCIAL SERVICES Citigroup; Ameriprise Financial; Aon; Risk and compliance management; due diligence; security and surveillance; analytical Fireman’s Fund Insurance, UBS, dashboards and composite applications; case management; auditing transparency; trend Credit-Suisse, Swiss Re, Munich Re, analysis; regulation and policy management; document and contract analysis; business rules Bank Vontobel for investment strategies; sales and customer service; risk scoring; new business acquisition; policy-based computing and application monitoring; loan processing; analyst productivity suites

HEALTH, MEDICINE, National Library of Medicine; Amgen; Meta-searching and clustering; enterprise search; scientific discovery; translational medicine; PHARMA & LIFE Biogen; Eli Lilly; GSK; Novartis; Pfizer; clinical knowledge bases; reasoning and decision support; healthcare supply chain planning; SCIENCES Healthline; Partners Clinical Informatics; in silico drug discovery; integrated biosurveillance; lexical standardization; market intelligence;

University of Texas; Mayo Clinic; patient records; drug development cost reduction ImpactRX; Cleveland Clinic; Astrazeneca

MANUFACTURING          Emerson Motors; General Dynamics; General Motors; BAE Systems; Rockwell Automation; Proctor & Gamble; EniTechnologies; Siemens

R&D; supply chain; customer support; product modeling; design and fabrication; design-

Source: Project10X

to-order; document life cycle management; virtual manufacturing; international market and scenario simulation and visualization; robotics and autonomous systems; speech recognition; automobile telematics and automation; quality improvement; enterprise knowledge management; inventory optimization; maintenance and repair management; competitive intelligence; intellectual capital management; portfolio management; customer self-service

TRANSPORTATION & Tankers International; SouthWest Airlines Cargo management; shipment tracking; contract review & management; logistics outsourcing LOGISTICS management; logistics cycle emulation; network routing and scheduling

PUBLIC SECTOR            DoD Finance & Accounting Service; GSA; National Communications System Continuity Communications Working Group; FAA; OMB; National Geospatial Intelligence Agency; National Institutes of Health; National Cancer Institute; National Center for Biomedical Ontology; Dept. of Health and Human Services; Defense Information Systems Agency; Defense Logistics Agency; U.S. Army; XVIII Airborne Corps; Dept. of Education; Internal Revenue Service; National Biological Information Infrastructure; NSA; CIA; DIA; Dept. of Homeland Security

Semantic Service Oriented Architecture (SSOA); modeling IT environments; federated queries across databases; process management; geospatial information interoperability; predictive analytics; document parsing and entity extraction; mapping biological networks and biomarkers; unified medical ontologies; clinical care support; net-centric data services; knowledge navigation; speed of command; combat information distribution; nested networks; educational and training gateways; grant application processing; tax code navigation; expert systems; integrated defense information access; relationship analytics and social network analysis; pattern recognition; emergency management; immigration; infrastructure protection; international trade


 

About the Author

 

In addition to his research and consulting practice, Mills is currently directing development of commu­nity based collaborative semantic magazine that is dedicated to aggregating, linking, and making sense of all things Web 3.0.

Executive Summary

24

Mills Davis is founder and managing director of Pro­ject10X — a Washington, DC based research con­sultancy specializing in next wave semantic tech­nologies and solutions. The firm’s clients include technology manufacturers, global 2000 corpora­tions, and government agencies.

Mills served as principal investigator for the Seman­tic Wave 2008 research program. A noted consul­tant and industry analyst, he has authored more than 100 reports, whitepapers, articles, and industry studies.

Mills is active in both government and industry-wide technology initiatives that are advancing semantic technologies. He serves as co-chair of the Federal Semantic Interoperability Community of Practice (SICoP). Mills is a founding member of the AIIM in­teroperable enterprise content management (iECM) working group, and a founding member of the Na­tional Center for Ontology Research (NCOR). Also, he serves on the advisory boards of several new ventures in the semantic space.

 

Above:

Sample Pages from Semantic Wave 2008: Industry Roadmap to Web 3.0


 

Summary

In the preceding pages we introduced the thesis and have highlighted some findings and conclu­sions from our new research report — Semantic Wave 2008: Industry Roadmap to Web 3.0. We hope this brief overview will encourage you to read the full report. As you can see from the sample pages, Se­mantic Wave 2008 is no ordinary research report. It is written to be understood by a broad audience and contains a great many figures and illustrations.

Semantic Wave 2008 explains the new semantic technology and gives perspective on emerging pat­terns and keys to success. It gauges both technolo­gy and market readiness. By mapping the frontier, it shows where the tough problems are, and where to look for breakthroughs. But, most importantly, Se­mantic Wave 2008 profiles significant opportuni­ties for executives, developers, designers, entre­preneurs, and investors. What to build and what to buy, and why. For this, SW2008 is simply the most comprehensive resource available anywhere at this crucial time.

The technology section of the report examines five strategic technology themes and shows how inno­vations in these areas are driving development of new categories of products, services, and solution capabilities. Themes include: executable knowl­edge, semantic user experience, semantic social computing, semantic applications, and semantic in­frastructure. The study examines the role of seman­tic technologies in more than 100 application cat­egories. An addendum to the report surveys more than 270 companies that are researching and devel­oping semantic technology products and services.

Executive

The market section of the report examines the

Summary

growth of supply and demand for products, services

25

and solutions based on semantic technologies. Spe­cifically, the report segments and discusses seman­tic wave markets from five perspectives: research and development, information and communication technology, consumer internet, enterprise horizon­tal, and industry verticals. Viewed as horizontal and vertical market sectors, each presents multi-billion dollar opportunities in the near-to mid-term. The study presents 150 case studies in 14 horizontal and vertical sectors that illustrate the scope of cur­rent market adoption.

In addition to the main report, there are two adden­da: a supplier directory, and an annotated bibliog­raphy.

Specifications for the Semantic Wave 2008 report and a topic outline follow this page.

 

Cuadro de texto: Semantic Wave 2008: Industry Roadmap to Web 3.0  Report Specifications 	Report Outline

Cuadro de texto: Format 	PDF — Color and B&W 	1 Introduction  Pages 	400 	2 Semantic Wave  Figures 	290 	2.1 Strategic Vision  Vendors 	270 	2.2 Web 1.0  Applications 	110 	2.3 Web 2.0 	Executive Summary  			26  Market sectors 	14 	2.4 Web 3.0 	 Case examples 	150 	2.5 Web 4.0 	 Price 	$3495 USD 	3 Semantic Technologies 	 Availability 	Nov 1, 2007 	3.1 Technology Themes & Perspectives 	 		3.2 Knowledge 	 		3.3 Semantic User Experience 	 		3.4 Semantic Social Computing 	 		3.5 Semantic Applications 	 		3.6 Semantic Infrastructure 	 		4 Semantic Markets 	 		4.1 Market View 	 		4.2 Research and Development 	 		4.3 Information & Communications Technology 	 		4.4 Consumer Internet 	 		4.5 Enterprise Horizontal 	 		4.6 Industry Verticals 	 		Addenda 	 		A Suppliers 	 		B Bibliography

Yes, our organization wishes to purchase the Semantic Wave 2008 Report: Industry Roadmap to Web 3.0.

Check box to specify request and method of payment:

                    We are ordering on-line by secure credit card transaction. Click here to pay by credit card.

                    We are paying by invoice for $3495 USD.  Click here to pay by invoice.

                    We are paying by check for $3495 USD. Payment is enclosed with this completed order form.

                    We want to discuss access to the report for our entire organization, including presentation on site.

 

Authorized Contact Information

Cuadro de texto: Name Title 		Executive Summary 27  Organization 		 Address 1 		 Address 2 		 City 		 State/Province 		 Zip/Postal Code 		 Country 		 Business Phone 		 Business Fax 		 Mobile Phone 		 Email 		 URL (www) 		 Authorized Signature: 		 Send completed form to: Mills Davis, Managing Director Project10X 2853 Ontario Road NW #501 Washington, DC 20009 USA For additional information, please contact: Karen Aiken, 408-234-9054  or Bojana Fazarinc, 408-334-4708 	Vox:  202-667-6400 Cell: 202-255-6655 Fax: 1-800-713-8049 Email: mdavis@project10X.com URL: www.project10X.com


 

Semantic Exchange

The Semantic Wave 2008 Executive Summary is published in association with the Semantic Exchange — a collaborative industry news, research, and education initiative about all things web 3.0 and semantic web. Semantic Exchange is sponsored by the

industry leading organizations presented here.

 

Semantic Exchange

28

Aduna offers enterprise search solutions based on guided exploration: during the search process users receive guidance in the form of contextual hints for further exploration and user-friendly vi­sualization to keep overview. RDF(S) metadata storage and retrieval using Sesame, which is an open source RDF database with support for RDF Schema inferencing and querying.

 

Celtx is the world’s first fully integrated solu­tion for media pre-production and collaboration powered by semantic technologies. This engag­ing, standards based software for the produc­tion of film, video, theatre, animation, radio and new media, replaces old fashioned ‘paper, pen & binder’ media creation with a digital approach to writing and organizing that’s more complete, simpler to work with, and easier to share.

The industry-leading Operational Intelligence Software Suite for proactive management of risk and compliance. Serving public sector, retail and healthcare Industries our operational risk and compliance solutions include theft, fraud & criminal Investigations, improper payments, in­telligence fusion, emergency management and auditory compliance. This platform delivers real-time analytics, case management and dynamic dashboard technologies for detection, investiga­tion, assessment and monitoring.

A leading supplier of semantic software and infrastructure for knowledge management. Se­mantic framework integrates subject and pro­cess ontologies with business rules to deliver intelligent e-forms, knowledge bases over het­erogeneous information sources, advisory ser­vices, auto-classification, decision trees, calcu­lators, and semantic search and navigation.

 

CHECKMi semantic solutions improve the con­trol, agility and cost of service oriented agent & semantic grid computing. The CHECKMi:Mate is a product platform for networking semantic software agents together to power information analytic services and deliver secure business processing.

empolis, The Information Logistics Company, of­fers enterprise content and knowledge manage­ment solutions for company-wide information logistics and for improving business processes. empolis’ core competencies are information management, service management, product & catalog management and media management. empolis consistently relies on open standards, such as XML, Java or OWL and RDF.

Develops a semantic application server and a suite of SOA based semantic middleware tool­kits which dramatically simplify, as well as accel­erate the building of scalable, fluid applications that incorporate the most advanced semantic techniques and integrate easily with other indus­try leading technologies.

Developer of large-scale “ontology of the uni­verse,” common sense knowledge base, and associated reasoning systems for knowledge-intensive applications. Cyc KB provides a deep layer of understanding that is divided into thousands of “microtheories”, each of which is essentially a bundle of assertions that share a common set of assumptions about a particular domain of knowledge, a particular level of detail, a particular interval in time, etc.

Semantic software, which discovers, classifies and interprets text information. Patent pending technology, Cogito, enables organizations to: extract, discover and understand the connec­tions in your strategic information sets – the thousands of files, e-mails, articles, reports, web pages you have access to everyday; and, un­derstand automatically the meaning of any text written in the language we use to communicate (natural language). Cogito improves business decisions in real time for the majority of corpo­rate functions.

 

Whether you are a newcomer to semantic technologies or already have experience with them, the goal of Semantic Exchange is to help you better keep up with the rapid pace of technology and infrastructure development, connect with the people and companies making the next stage of the internet happen, and understand the breadth of applica­

tions across consumer and enterprise industry sectors.

 

iQser provides semantic middleware for the in­tegration and evaluation of data in networks of information. The iQser GIN server does not need to modify or migrate information. It virtually in­tegrates the pieces of information from various data sources. Semantic analytics to link and in­terpret diverse sources of information are fully automatic. Reasoning capabilities over linked data resources are extensive.

Semantic Exchange

29

KBSI provides advanced R&D, products, and so­lutions in areas such as artificial intelligence and expert systems, geometric reasoning, comput­er-aided design and manufacturing, manufac­turing systems design and analysis, enterprise integration, process modeling, computer-aided software development, systems simulation, business process design and development, and total quality management.

 

The Metatomix Semantic Platform integrates data, uncovers and defines information relation­ships, and provides meaning and actionable insight to applications. It does so by creating a real-time virtual integration layer that non-inva­sively accesses data from any source (static and dynamic) and allows it to be understood & lever­aged by practically any application.

Kirix Strata is a “data browser” — a fusion of a web browser and a built-in relational database. Strata brings the sensibilities and simplicity of a web browser to the world of tabular data, mak­ing it easy to access, view and use data from any source, even the Web. Strata provides busi­ness analysts, researchers and IT professionals a tool for extremely quick ad hoc analysis and reporting, whether working with local data, data­base systems or back-end business intelligence systems.

Mondeca provides software solutions that lever­age semantics to help organizations obtain max­imum return from their accumulated knowledge, content and software applications. Its solutions are used by publishing, media, industry, tourism, sustainable development and government cus­tomers worldwide.

 

Ontotext is a semantic technology lab of Sir-ma Group. Ontotext researches and devel­ops core technology for knowledge discovery, management,and engineering, Semantic Web, and web services.

KFI’s Mark 3 Associative Knowledge Platform enables cost effective, long-term retention and application of enterprise knowledge, providing intelligent business process, integrated finan­cial simulations, knowledge-based training, and complex decision support.

Leading European supplier of knowledge gen­eration solutions that use semantic technologies and artificial intelligence to extract knowledge from varied Internet sources and integrate it with business processes. Applications include early warning, risk management, marketing and sales tools, media monitoring, asset management, corporate governance and compliance, issue management, anti money laundering, know­your-client, executive search, project manage­ment, and other business applications.

Ontos creates semantic web solutions for pub­lishers and media providers that provide better search and navigation through related content. Ontos portals create on-the-fly views of infor­mation aggregated from the Internet. Advertis­ing links to related content in a meaningful way. Web widgets enrich website pages with intel­ligent content, resulting in a more compelling experience that attracts readers, increases page views, and enhances search engine optimiza­tion. Increasing traffic on the website leads to more ads and more revenue.


 

Semantic Exchange

Semantic Exchange educational activities will include a series of monthly webinars, briefings, publications, and media articles. Also, we’re planning a “smart innovators laboratory” where public and private sector organizations can gain access to people, research, and technologies, and can conduct pilot tests to prove out the benefits of

semantic solutions.

 

Project10X is a premier industry research, edu­cation, and consulting firm specializing in next wave semantic technologies, solutions, markets, and business models. Project10X publishes the Semantic Wave research series including the Semantic Wave 2008 Report. The firm provides educational and training services, and consults with technology manufacturers, global 2000 corporations, government agencies, and tech­nology start-ups. Project10X is directing the Se­mantic Exchange industry education initiative.

 

RiverGlass meaning-based search and discov­ery helps people and organizations locate and make sense of information relevant to their areas of interest. RiverGlass moves beyond keyword searching and tagging into the meaning of the data to deliver focused, relevant search results that zero in on key pieces of information around people, locations, and events of interest and relationship among them. Connecting the dots sparks insights and improves decision-making.

 

Semantic Arts is a USA-based consulting firm that helps large firms transform their Enterprise Architectures. Our specialty is reducing com­plexity through the intelligent use of Semantic Technology and Service Oriented Architecture.

 

Twine is the first application on the Radar Net­works Semantic Web platform. Twine helps users leverage and contribute to the collective intelligence of their friends, colleagues, groups and teams

 

Develops W3C and OMG standards-compliant, semantically aware, knowledge-based soft­ware products that facilitate business informa­tion interoperability, terminology normalization and context resolution across web-based and enterprise information systems. Visual Ontol­ogy Modeler™ (VOM) UML-based ontology modeling environment supports frame-based knowledge representation and construction of component-based ontologies that capture and represent concepts, resources and processes.

 

Leading supplier of semantic research solutions. SI services help people access the internet to read just the information they’re interested, use their computer to help reason about it, and then report it just the way they want, easy, fast, and automatically.

Semantic Exchange 30

The Reinvent media group’s mission is to en­lighten and connect people through words and visual information. Its resources include domain names, global advertising networks, virtual cit­ies, semantic technology and a venture capital arm. The group’s vision is to evolve from basic advertising services into a knowledge engine that provides useful content and relevant infor­mation to all people.

 

Semantech is a professional services firm that provides enterprise-level semantic solutions that unify process, logic, data, and user experience through semantic integration and agile model driven design.

Semantica software provides semantic network theory-based knowledge capture, representa­tion, management, transfer and visualization. Semantica products capture what experts know, organize it, and visually represent it the way that humans store information in long-term memory. In addition to concept mapping, product suite integrates with natural language processing and geospatial integration technologies.

And, Semantic Exchange will be bringing you an open collaborative industry news, research, and education portal about all things web 3.0 and semantic web. The site is part semantic community wiki, part internet magazine, part technology showcase for new capabilities, and part knowledge outfitter where you can gain access to both com­mercial and open source tools, widgets, building blocks, and solution blueprints.

 

Semantic System ag manufactures hardware technology for intelligent computer systems. Its first generation computer chip “thinks” like a biologic brain making it possible to run complex thought and analyzing processes in hardware to obtain results equivalent to those obtained manually by a skilled humans.

 

The Talis Platform is an open technology plat­form for mass collaboration and human-centric and information-rich applications. It combines Semantic Web, information retrieval, collective intelligence, and behavioral mining technolo­gies, which can be accessed through a suite of RESTful web services. Talis Platform provides data management, organization and analysis components that can learn and understand pat­terns of behavior and present them through an API to be interwoven into applications.

 

TopQuadrant provides products, services, knowledge, training programs and methods to help organizations integrate data and process­es and to harness the knowledge distributed across systems and parties. TopQuadrant helps customers implement new capabilities for inte­gration, policy management, search, enterprise architecture and model-driven applications. The TopBraid product suite provides an enterprise-level platform for developing and deploying se­mantic applications.

Semantic Universe’s mission is to raise aware­ness and explain the usage of semantic technol­ogies in business and consumer settings. Proj­ects by Semantic Universe include the annual Semantic Technology Conference (HYPERLINK “http://www.semantic-conference.com/”www. semantic-conference.com) and the Semanti­cReport newsletter (HYPERLINK “http://www. semanticreport.com/”www.semanticreport. com).

Leading supplier of fully automated and real-time contextual targeting services for both ad­vertisements and web pages. Natural Language Processing (NLP) and Machine Learning (ML) technologies automate establishment of se­mantic signatures with contextual attributes that enable high precision customer targeting and media placement.

WAND provides structured multi-lingual vocabu­laries with related tools and services to power precision search and classification applications on the internet, including custom travel, jobs and skills, and medical taxonomies to our corner­stone and product and service taxonomies. In addition to licensing its taxonomies for integra­tion into third party applications, WAND builds precision online horizontal and vertical business directory applications.

Ontology driven technology solutions for infor­mation management projects. Professional ser­vices and semantic middleware for government, media, and financial services industries. Sema­phore semantic processor provides description logic based automatic classification and cate­gorization for taxonomies, thesauri, and ontolo­gies based on rules., intelligent guided search, taxonomy management, dynamic profiling and recommendation software for intranet, internet and portal applications.

OpenCalais automatically creates rich seman­tic metadata for content using natural language processing, machine learning and other meth­ods. You can make graphs with this metadata that give you the ability to improve site naviga­tion, provide contextual syndication, tag and organize your content, create structured folk­sonomies, filter and de-duplicate news feeds, or analyze content to see if it contains what you care about.

Enterprise 2.0 solution: combines Knowledge Plaza platform and new knowledge manage­ment methodology, Enterprise Social Search. to leverage the expertise of colleagues’ to access relevant information and which enhances those individuals who share their knowledge, facilitat­ing access to other’s valuable information and capitalizing it for the benefit of the group.

Semantic Exchange 31

Read Full Post »

Older Posts »