Feeds:
Posts
Comments

Posts Tagged ‘Internet’

Theorem: “The limit of The Artificial Intelligence”.

 

 

The limit of the Artificial Intelligence are not set by the use of machines themselves, and biological systems could be used to reach this goal, but as the Logic that is being used to construct it does not contemplate the concept of time, since it is purely formal logic and metonymic lacks the metaphor, and this is what Gödel’s theorems remark, the final tautology of each construction or metonymic mathematical language, which leads to inconsistencies. The construction of the Artificial Intelligence is an Undecidible Problem .

 

This consistent logic is completely opposite to the logic that makes inconsistent use of time, inherent of human unconscious, but the use of time is built on the lack, not on positive things, it is based on denials and absences, and this is impossible to reflect on a machine because of the perceived lack of the required self-awareness is acquired with the absence.

 

The problem of Artificial Intelligence is that we are trying to build an Intelligence system to replace our way of thinking, at least in the information search, but the special nature of human mind is the use of metaphor which lets human beings reach a conclusion, therefore does not exist in the human mind the Halting Problem or stop of calculation.

 

If you suppose as a theorem, that it is possible to construct a machine, with a Intelligence with capabilities similar to human Intelligence, should we face it as a theorem, we can prove it to be false with a Counter Example, and it is given in the particular case of the Turing machine and “the halting problem” or stop of calculation.

 

So all efforts faced toward Artificial Intelligence are doomed to failure a priori if the aim is to extend our human way of thinking into machines, they lack the metaphorical speech, because only a mathematical construction, which will always be tautological and metonymic, and lacks the use of metaphor that is what leads to the conclusion or “stop”.

Read Full Post »

Theorem: From Logic to Ontology: The limit of “The Semantic Web”.

 

 

The limit of the Semantic Web are not set by the use of machines themselves, and biological systems could be used to reach this goal, but as the Logic that is being used to construct it does not contemplate the concept of time, since it is purely formal logic and metonymic lacks the metaphor, and this is what Gödel’s theorems remark, the final tautology of each construction or metonymic Mathematical Language , which leads to inconsistencies. The construction of the Semantic Web is an Undecidible Problem .

 

This consistent logic is completely opposite to the logic that makes inconsistent use of time, inherent of human unconscious, but the use of time is built on the lack, not on positive things, it is based on denials and absences, and this is impossible to reflect on a machine because of the perceived lack of the required self-awareness is acquired with the absence.

 

The problem is we are trying to build an intelligent system to replace our way of thinking, at least in the information search, but the special nature of human mind is the use of time which lets human beings reach a conclusion, therefore does not exist in the human mind the Halting Problem or stop of calculation.

 

So all efforts faced toward semantic web are doomed to failure a priori if the aim is to extend our human way of thinking into machines, they lack the metaphorical speech, because only a mathematical construction, which will always be tautological and metonymic, and lacks the use of the time that is what leads to the conclusion or “stop”.

 

As a demonstration of that, if you suppose it is possible to construct the semantic web, as a language with capabilities similar to human language, which has the use of time, should we face it as a theorem, we can prove it to be false with a Counter Example, and it is given in the particular case of the Turing machine and “the halting problem”.

Read Full Post »

Cerebro, Computadoras y Mente: Del Lenguaje y del Pensamiento de los Seres Humanos, las Máquinas y los Animales. El fracaso de la Inteligencia Artificial y de la Web Semántica.

 

Francisco Antonio Cerón García

Physic’s Spanish Real Society

fcerong@gmail.com

 

Índice

 

1.- Introducción                                                                    1

    

2.- Situación actual de la Ciencia de la Computación.        3

 

3.- Los límites de las herramientas de la Ciencia: la Lógica Formal y la Experimentación                                               4

 

4.- Los mecanismos fundamentales del Lenguaje y del Pensamiento.                                                                      8

 

5.- Estructuralismo.                                                             9

 

6.- Conocimiento y Transmisión del Conocimiento.          11

 

7.- Naturaleza y Representación del Conocimiento.         14

 

8.- ¿Porque no intentar enseñar a hablar y/o a pensar a una máquina? Limitaciones y fracasos de la aproximación de la Lógica Descriptiva.                                                   17

 

9.- El Pensamiento y el Lenguaje.                                     19

 

10.- El Pensamiento no es lo mismo que el Lenguaje, y el Cerebro no es lo mismo que la Mente. ¿Qué es la Inteligencia?. ¿Qué es el Pensamiento?.                          20

 

11.- Diferencia entre los animales y los seres humanos    21

 

12.- Conclusión: Imposibilidad del Lenguaje y Pensamiento humano en las Máquinas, y el fracaso de la Inteligencia Artificial y de la Web Semántica.                                        23

 

13.- Teorema: “El Límite de la Inteligencia Artificial”.         25 

 

14.- Teorema:  De la lógica a la ontología: “El Límite de la Web Semántica”.                                                                27

 

15.- Bibliografía.                                                                 29                                                                                                                         

 

 

 

 

1.- Introducción

 

De la lectura de “Minds, Machines and Gödel”  por
J.R. Lucas
, y de otros autores como Roger Penrose, hay un numeroso trabajo previo de argumentación de la imposibilidad de hacer pensar y/o hablar a las máquinas u ordenadores.

 

 

La metonimia, el primer mecanismo del pensamiento y el lenguaje humano, ya la tenemos incorporada en las máquinas u ordenadores, es el sustrato mismo de la Lógica Simbólica y/o formal (y por lo tanto también de las Matemáticas), pero nos falta la metáfora, que es lo que a los seres humanos nos permite “concluir” en el sentido estricto del término en Psicoanálisis, la metáfora nos introduce en lo real como paso del tiempo.

 

Y este es mi gran reto: Inventar una lógica o no consistente o no completa (pero no ambas a la vez como pretende la lógica formal), que además de la metonimia presente en la lógica matemática consistente, tenga también incorporada la metáfora.

 

 

2.- Situación actual de la Ciencia de la Computación.

 

El intento de construir la Web Semántica a partir de la Lógica Descriptiva, la cual a su vez toma como base a la Lógica Simbólica o Lógica Matemática, es contradictorio e incoherente, pues aunque la lógica simbólica o matemática es consistente, sin embargo por definición sólo tiene sentido único o unívoco (significado único), lo cual es totalmente contradictorio con la semántica del lenguaje (natural) ,  la cual es de sentido ambigua o multívoca (varios significados).

 

Si lo que perseguimos es, por ejemplo, como una aplicación de la Web Semántica, cuando hacemos una búsqueda en Google, obtener unos pocos y precisos resultados, en lugar de los varios millones de ambiguos que se suelen obtener, tenemos que partir de otras herramientas más adecuadas al lenguaje, que tengan sentido multívoco y no sólo unívoco, y por lo tanto hay que construir nuevas herramientas en lugar de las ya existentes que tomen en cuenta dicha diferencia.

 

Tenemos que acudir a las Ciencias que estudian el lenguaje, y más aún, a las Ciencias que estudian el pensamiento y la mente humana, allí podemos encontrar las herramientas que buscamos, y proyectarlas, si es posible, sobre las Matemáticas, inventando, si es necesario, una nueva lógica menos parcial que la Lógica Formal, la Lógica Simbólica y/o matemática actual, que nos dé lugar a una nueva y distinta lógica que la Lógica Descriptiva actual, que constituye un completo y sonoro fracaso en semantizar  Internet.

 

Todo lo anterior tiene sentido si analizamos el marco en el que se ha desarrollado el conocimiento humano, desde inclusive la misma prehistoria. A grandes y fundamentales rasgos, y de forma también muy simplificada, lo único que nos diferencia verdaderamente de los animales es que somos “seres hablantes”, o lo que es lo mismo, que hacemos uso del lenguaje, y lo importante en nuestro caso es que hacemos uso del lenguaje como medio de comunicación, lo que nos ha servido para la transmisión de conocimientos a lo largo de toda la historia de la humanidad.

 

Lo único que verdaderamente a cambiado la manera de transmisión de lo exclusivamente oral (habla), ha sido la invención de la escritura, que ha permitido la perdurabilidad y acumulación sucesiva de los conocimientos, desde el papel de papiro y las tablas de arcilla, pasando por los libros manuscritos y llegando a  la invención de la imprenta por Gutenberg. Con esta última abaratamos sustancialmente los costes de transmisión del conocimiento, y posteriormente con el invento de Internet (y los ordenadores) disminuimos el coste de transmisión de los conocimientos a casi cero (al menos en los países desarrollados); así el conocimiento, por primera vez en la historia de la humanidad, está hoy día casi al alcance de todo el mundo y no unos pocos privilegiados, como por ejemplo en el medioevo.

 

Pero ahora si además lográramos “semantizar” Internet, donde “la Web Semántica es una visión de la información que sea comprensible por los ordenadores, de modo que puedan realizar mejor el tedioso trabajo de encontrar, compartir y combinar la información de la Web”, el ahorro ya no sólo sería una cuestión económica y monetaria, el ahorro además sería de economía del tiempo de pensamiento, o lo que es lo mismo del tiempo necesario para buscar y encontrar el conocimiento.

 

Por otra parte, además de la reseña histórica y en los rasgos fundamentales en la transmisión del conocimiento y su logro correspondiente, que es toda la civilización humana, hay que “enmarcar”, definir el marco en el cual se ha realizado el mismo en toda la historia de la humanidad, y no es un tema banal y sin importancia ni mucho menos, sino y de la mayor importancia. Hoy día hay ciencias específicas del estudio del conocimiento como la Epistemología, Gnoseología y otras. Pero aún así necesitamos más herramientas de otras áreas, como el Psicoanálisis, la Lingüística, etc. Lo cual fundamentaré a continuación.

 

 

3.- Los límites de las herramientas de la Ciencia: la Lógica Formal y la Experimentación.

 

Primeramente quiero decir que el enfoque “neurocientífico”, donde todo lo relacionado al ser humano tiene una explicación y aplicación directa exclusivamente  “neurológica” y/o “biológica”, cuando no y además “genética”, es incompleto y muy parcial. La hipótesis de trabajo fundamental de toda  la Ciencia actual es que la Mente y el Cerebro son iguales o equivalentes, y todo ello viene dado y ocasionado por la preponderancia y exclusividad en la Ciencia de los métodos estadísticos y estocásticos, cuantitativos (despreciando y excluyendo lo cualitativo), y lógicos formales, estos últimos aunque rigurosos sin embargo son incompletos y/o contradictorios tal y como nos muestran múltiples resultados y paradojas tanto en Matemáticas (Teoremas de Gödel), como en otras áreas de la Ciencia. Pero el ser humano con el lenguaje va mucho más allá de dicho reduccionismocientífico” (considerando a la Ciencia como un sistema  sólo y exclusivamente formal del pensamiento como así se la  define de forma ortodoxa y tradicional), el ser humano va mucho más allá de todo lo meramente biológico, tal y como demuestra el Psicoanálisis, en particular Freud y Lacan, y en la clínica.

 

Freud y Lacan descubrieron que hay un sujeto (persona) particular en cada ser humano, que le constituye (por ejemplo con su inconsciente), y que no es generalizable, y sobre todo en el sentido reduccionista de la Ciencia, sea la genética, sea la biología, sea  la química, sea la física, sea las matemáticas, y más ampliamente aún sea desde el punto de vista de la lógica formal; porque este sistema de pensamiento es por definición cerrado y completo sobre sí mismo, pero como es una aproximación solamente metonímica a lo real, carente de la metáfora del lenguaje y pensamiento humanos, es una aproximación muy pobre al final (a pesar de los frutos tecnológicos que ha obtenido nuestra civilización de ello), y ella nos ha llevado a sus propios límites en el conocimiento de lo real, lo cual es claramente visible en numerosas las paradojas matemáticas (Teoremas de incompletitud de Gödel), informáticas (Máquina de Turing y Problema de la parada –  Turing Machine & Halting Problem), e inclusive físicas (la teoría de la relatividad es  incompatible matemática y físicamente con la teoría de la mecánica cuántica -nuestras dos teorías fundamentales de la Ciencia y la tecnología y más cercanas al mundo real-).

 

 

Porque en toda la historia de la humanidad, tanto las ciencias, las exactas, como la física, química, matemática, como las otras, tales como la biología, la genética, la neurología, la medicina, las neurociencias, etc., y además todas sus aplicaciones en toda la tecnología pasada y presente, están todas ellas basadas en una lógica formal del pensamiento, y precisamente desde Gödel, encontramos numerosos ejemplos de paradojas…Todo lo cual nos muestra que estamos en los límites del conocimiento que nos puede aportar la lógica formal, la cual por definición está limitada solamente al sentido unívoco de la metonimia, y aunque combinada con la transmisión del conocimiento, ha permitido construir la actual civilización tecnológica, sin embargo estamos en un marco lógico limitado y constreñido a los límites de la lógica formal, y que como ya he dicho es la herramienta del pensamiento científico y la tecnología actuales por su propia definición y en toda su evolución histórica desde la época de la civilización griega.

 

Luego si la lógica formal, que es la base de todo pensamiento de toda la ciencia y la tecnología, puede llegar a ser “contradictoria”, y “limitada” o “incompleta” (Gödel), hay que dar un paso más allá y abrir el horizonte usando unas herramientas más completas y menos parciales, que podemos sacarlas de lo que ha descubierto el Psicoanálisis del ser humano y su constitución como sujeto en tres estructuras: una simbólica, otra imaginaria, y la conjunción de ambas con lo real nos permite apreciar “algo” de lo real, pero de una forma parcial y fragmentada, no hay una coherencia y reciprocidad entre lo que nuestra mente es capaz de llegar a captar, entender y/o comprender de lo real, con lo que verdaderamente es lo real.

 

Y es por esta falta de aceptación y de haberse dado cuenta de lo anterior es que el discurso de la ciencia y la tecnología es alienante, y se empiezan a encontrar plagadas de paradojas y contradicciones; y para colmo de males cuanto más se excluye la metáfora, lo singular y/o particular del sujeto, cuando más metonímico y cerrado se vuelve el discurso científico, tanto más se aleja de lo real, y un ejemplo vivido por todos actualmente y de forma muy cercana es la “crisis” económica mundial, en donde el sistema económico se ha devorado a sí mismo, y tampoco nos ha faltado tanto a la humanidad entera con la alienación de la guerra atómica, no hemos estado ni estamos tan lejos de devorarnos a nosotros mismos, por el “progreso” ilimitado de la ciencia y la tecnología; si no somos conscientes de sus límites y no nos hacemos cargo de ellos, lo real siempre está presente para surgir muy a nuestro pesar, y recordárnoslo y no de forma precisamente agradable.  No propongo un retorno a la naturaleza, que es  “mítico”, sino hacernos cargo de nuestra responsabilidad y asumir los límites del pensamiento científico y tecnológico, pero siendo un científico a mi vez de formación y vocación,  intento a su vez ir un paso más allá, y teniendo presentes estos límites, y mi limitación como la de todos para conocer lo real, intento encontrar nuevas formas de pensamiento aplicables a la ciencia, a la tecnología, y la informática en particular.

 

El peor error de la ciencia es creerse la única verdad fundamental y estar por encima de todo, y sin embargo lo real es tan complejo y tan complicado que requiere como mínimo una gran dosis de humildad, y es por ello que la ciencia actual es tan incapaz de ir más allá de su propio discurso y sus propios límites lógicos, y darse cuenta que mente y cerebro no son equivalentes y/o iguales; este es el gran error de la mayoría de los científicos actuales (Cientifismo) adornado y barnizado con la tecnología. Pero si al menos no se quiere aceptar como una verdad cierta y demostrada, siempre queda usarla como axioma, al igual que miles de conocimientos que en todas las áreas de la ciencia no son demostrables y sin embargo se dan por ciertos, y si mi axioma de que mente y cerebro no son lo mismo, funciona correctamente y nos lleva a resultados coherentes con el mundo real, lo daremos entonces por cierto.

 

 

4.- Los mecanismos fundamentales del Lenguaje y del Pensamiento.

 

Además de lo dicho en los párrafos anteriores, el Psicoanálisis también nos enseña que hay dos mecanismos fundamentales en el Lenguaje (Saussure) y el pensamiento humano, cuales son el desplazamiento o metonimia, y la condensación o metáfora (Freud), o lingüísticamente llamados metonimia y metáfora (Lacan).

 

La metonimia es el mecanismo fundamental del pensamiento científico (y matemático), y es lo que refleja la lógica formal y/o simbólica, donde el sentido ambiguo y multívoco del Lenguaje se ha diseccionado en un sentido preciso y unívoco para conseguir rigor, y consistencia por lo tanto, y excluir la contradicción, pero a costa de suprimir el otro mecanismo del pensamiento, cual es la condensación o metáfora, llegando paradójicamente a resultados contradictorios (véase paradojas…) o incompletos. Dentro de todo el sistema lógico formal ha funcionado permitiéndonos inventar y desarrollar nuestra presente civilización tecnológica, pero como ya he dicho, estamos encontrando su límites lógicos.

 

Ahora entonces, podemos dar un paso más adelante y más allá, con la incorporación de la metáfora a nuestro sistema lógico del pensamiento la ciencia y la tecnología, donde  la incorporación de la metáfora,  podría implicar la pérdida del principio de la generalidad, pero inclusive aún llegando a un sistema incompleto, seguramente tendría una representación más cercana y certera de lo real que con el sistema tradicional. Y ello es lo que me propongo hacer e intentar construir a partir de ahora…

 

Y si logro definir una lógica que además de la metonimia tenga incorporada también la metáfora, tendré incorporados entonces los dos mecanismos fundamentales del pensamiento y del lenguaje humano. Aún así siempre será un sistema parcial y limitado del conocimiento, pero tendrá como ya he dicho anteriormente una  mejor percepción de lo real que con la sola metonimia de la lógica simbólica.

 

La metáfora o condensación es lo que nos permite concluir y lo que nos introduce lo real como paso del tiempo,  mientras que en la lógica simbólica o matemática, lo real entra solamente a través de la cardinalidad de los Números.

 

 

5.- Estructuralismo.

 

El marco teórico y experimental en el que me muevo es  por lo tanto el “Estructuralismo”, comenzando desde Saussure con su estudio de la lengua, siguiendo a Jakobson y a Levis Strauss, y terminando en Freud y Lacan con el descubrimiento del inconsciente, el Psicoanálisis, y la constitución del  ser humano como sujeto.

 

No me propongo ni pretendo hacer una demostración puntillosa, perfecta, completa y rigurosa en el sentido clásico y ortodoxo de la ciencia, porque estaría usando la concepción de la lógica formal del pensamiento tradicional y ortodoxo de la ciencia y la tecnología,  aunque ello no significa renunciar a la coherencia o consistencia interna, aunque mi sistema no sea por definición ni completo, ni por lo tanto cerrado, sólo exigiré, si me es posible, la no contradicción, y sí pretendo a partir del marco teórico y experimental que he definido, encontrar, identificar, y/o inventar si es necesario, unas herramientas que me permitan analizar y estudiar los conocimientos no sólo de una forma metonímica de la lógica formal y/o simbólica, como hasta ahora ha sucedido en Informática e Internet, sino y además que pueda “semantizar” la Web, con el añadido de alguna herramienta que represente la metáfora, y el principio de condensación del lenguaje y el pensamiento humano, que es lo que nos acerca a lo real a través del paso del tiempo y la conclusión.

 

Este sistema lógico por lo explicado anteriormente sobre nuestra percepción de lo real, y también por definición, no será completo, e inclusive podría llegar a ser inconsistente, aunque procuraré hacerlo de tal manera que en lo posible lo evite, como lo es a veces lo mismo real, pero será una útil herramienta para manejar el conocimiento en Internet. No pretendo al final que los ordenadores lleguen a hablar, ya que mi teorema “El Límite de la Web Semántica”, dice que ello es imposible, pero todo lo que pueda caminar en dicho sentido será un avance sustancial para el manejo y transmisión del conocimiento a través de Internet.

 

Y este sistema lógico además de no ser completo implica entonces que no es cerrado, o sea que es abierto, y aunque parece imposible así construir algo “científico”, sin embargo toda la ciencia y la tecnología y sus descubrimientos están imbuidos en buena medida del mismo, ya que aunque hemos intentado formalizarlo con la lógica formal, sin embargo la relación de la ciencia y la tecnología con lo real, pasa a través de nuestra mente y sus mecanismos a veces inconsistentes, pero relacionados directamente con lo real, donde nadie es, desde allí es que pretendo buscar y encontrar este nuevo orden del pensamiento, donde todo no es completo y cerrado, pero donde todo si está conectado a lo real a través de la semantización del lenguaje informático e Internet.

 

Este es mi  proyecto, tal vez disparatado y grandioso, cuan imposible, pero como decía Lacan “lo real es lo único imposible” y a por ello voy…

 

 

6.- Conocimiento y Transmisión del Conocimiento.

 

El conocimiento es, por una parte, el estado de quien conoce o sabe algo, y por otro lado, los contenidos sabidos o conocidos que forman parte del patrimonio cultural de la Humanidad. Por extensión, suele llamarse también “conocimiento” a todo lo que un individuo o una sociedad dados consideran sabido o conocido.

 

Sin duda, las ciencias constituyen una de los principales tipos de conocimiento. Las ciencias son el resultado de esfuerzos sistemáticos y metódicos de investigación en busca de respuestas a problemas específicos y cuya elucidación procura ofrecernos una representación adecuada del mundo. Hay también, no obstante, muchos tipos de conocimiento que, sin ser científicos, no dejan de estar perfectamente adaptados a sus propósitos: el «saber hacer» en la artesanía, el saber nadar, etc.; el conocimiento de la lengua, de las tradiciones, leyendas, costumbres o ideas de una cultura particular; el conocimiento que los individuos tienen de su propia historia (saben su propio nombre, conocen a sus padres, su pasado), o aún los conocimientos comunes a una sociedad dada, incluso a la humanidad (saber para qué sirve una martillo, saber que el agua extingue el fuego).

 

Aun cuando en cada momento se genera información, sin embargo, la cantidad de conocimiento humano es necesariamente finita, amén de la dificultad de resolver problemas tales como el origen de la vida y del universo, la muerte, entre muchos otros.

 

Los conocimientos se adquieren mediante una pluralidad de procesos cognitivos: percepción, memoria, experiencia (tentativas seguidas de éxito o fracaso), razonamiento, enseñanza-aprendizaje, testimonio de terceros… Por su parte, la observación controlada, la experimentación, la modelización, la crítica de fuentes (en Historia), las encuestas, y otros procedimientos que son específicamente empleados por las ciencias, pueden considerarse como un refinamiento o una aplicación sistemática de los anteriores. Estos son objeto de estudio de la epistemología.

 

La importancia que atribuye al conocimiento distingue a la humanidad de las otras especies animales. Todas las sociedades humanas adquieren, preservan y transmiten una cantidad sustancial de saberes, notablemente, a través del lenguaje. Con el surgimiento de las civilizaciones, la acumulación y la difusión de conocimientos se multiplican por medio de la escritura. A través de la historia, la humanidad ha desarrollado una variedad de técnicas destinadas a preservar, transmitir y elaborar los conocimientos, tales como la escuela, las enciclopedias, la prensa escrita, las computadoras u ordenadores.

 

Esta importancia va de la mano con una interrogación sobre el valor del conocimiento. Numerosas sociedades y movimientos religiosos, políticos o filosóficos han considerado que el acrecentamiento del saber, o su difusión, no resultaban convenientes y debían limitarse. A la inversa, otros grupos y sociedades han creado instituciones tendentes a asegurar su preservación, su desarrollo y su difusión. Así mismo, se debate cuáles son los valores respectivos de diferentes dominios y clases de conocimientos.

 

En las sociedades contemporáneas, la difusión o al contrario, la retención de los conocimientos, tiene un importante papel político y económico, incluso militar; lo mismo ocurre con la propagación de pseudo-conocimientos (o desinformación). Todo ello contribuye a hacer del conocimiento una fuente de poder. Este papel explica en buena parte la difusión de la propaganda y las pseudociencias, que son tentativas por presentar como conocimientos, cosas que no lo son. Esto le confiere una importancia particular a las fuentes de supuestos conocimientos, como los medios masivos y sus vehículos, tales como Internet.

 

Y así como el invento de la escritura y de la imprenta trajeron aparejada una revolución y explosión en la transmisión del conocimiento, ahora el invento de Internet y el intento de construir una Web Semántica sobre ella, significaría una revolución y explosión exponencial en la transmisión del conocimiento a una escala sin precedente alguno respecto de toda la historia de la civilización, porque ya no sólo todo el conocimiento sería accesible a un coste económico ínfimo como ha dado lugar Internet, sino y además que el coste de tiempo de búsqueda del conocimiento, a través del filtro de la Web Semántica en Internet, se reduciría a casi cero.

 

Para lograr el objetivo de construir la Web Semántica, ya no es suficiente con mecanizar con una máquina la escritura caligráfica y/o “a mano”, que fue lo que hizo “Gutenberg”, ahora necesitamos “enseñarle” el lenguaje a las  computadoras u ordenadores, y para ello es necesario saber:

 

¿Cuál es la naturaleza del conocimiento?

 

¿Cómo representamos al conocimiento?

 

Y estas preguntas y sus respuestas no son fútiles ni de perogrullo, pues tenemos que ser conscientes que este es el paso crucial que representa la Web Semántica: ¡La incorporación del “Lenguaje” en las computadoras u ordenadores! Y aunque mi teorema “The limit of The Semantic Web” dice que ello es un objetivo imposible, sin embargo todo lo que nos acercáramos en dicho sentido nos daría nuevas herramientas de transmisión del conocimiento. Evidentemente si lográramos totalmente dicho objetivo estaríamos muy cerca de que las máquinas tuvieran “pensamiento humano”, que aunque inclusive teniendo dicha habilidad, nunca serían iguales o equivalentes a los seres humanos por su distinta imbricación en lo real.

 

 

7.- Naturaleza y Representación del Conocimiento.

 

La teoría clásica de la transmisión del conocimiento, que es la teoría de la Comunicación nos dice que hay un emisor y un receptor, que es lo que también usa la Psicología como ciencia; pero la novedad del descubrimiento del Psicoanálisis es que además del receptor citado, hay también un segundo receptor que es el mismo emisor también. Y el Psicoanálisis nos descubre al ser humano como un sujeto divido, y por lo tanto nos descubre también la ambivalencia del lenguaje y la inexistencia de un sentido unívoco del mismo, o lo que es lo mismo, del sin sentido del sentido del lenguaje, tal y como Wittgenstein lo indicó.

 

El Psicoanálisis nos explica que en la constitución del sujeto interviene un mundo simbólico, que es el lenguaje, un mundo imaginario, que es la participación que cada uno tiene en el lenguaje, y un mundo real, al que sólo se puede acceder a través precisamente de la representación del mismo que nos da la conjunción de lo simbólico y lo imaginario (lo Real, lo Imaginario y lo Simbólico).

 

Independientemente de todos los complejos detalles al respecto en la teoría Psicoanalítica, léase Freud y Lacan, lo importante es que el ser humano no percibe al mundo o a lo real tal cual es, sino y bajo el prisma de su propia constitución original de sujeto. Por ello la aprensión del conocimiento no es ilimitada, sino y limitada a la propia naturaleza del lenguaje humano ambivalente, lo que establece unos límites del conocimiento de lo real, y un buen ejemplo de ello es el intento del gran matemático Hilbert y otros, de construir un sistema matemático completo axiomáticamente y no contradictorio en sí mismo, pero como Gödel demostró con sus teoremas, si un sistema de conocimiento es completo, entonces es contradictorio, y viceversa, si un sistema es incompleto entonces no es contradictorio; también tenemos otros muchos ejemplos como la máquina de Turing y el Problema de la Parada. Al final lo que nos dice todo esto es que el lenguaje nos arrastra, inclusive a nuestro pesar, a sus propios límites, y si no tenemos esto en cuenta para construir la Web Semántica estamos condenados desde el principio al fracaso.

 

Luego la naturaleza del conocimiento está limitada por el lenguaje como transmisor y por la propia estructura Psicoanalítica de los seres humanos. Y lo que representa el conocimiento entre los seres humanos, no es el pensamiento, sino y su medio transmisor, o sea el lenguaje. Entonces lo importante no es tanto la naturaleza del conocimiento, sino y la naturaleza de su medio transmisor el lenguaje, del que ya he dicho que es ambivalente y no es de sentido unívoco, y esto es lo que tenemos que tener en cuenta para construir la Web Semántica.

 

Un apunte más, los mitos que solemos despreciar por considerarlos anacrónicos, no modernos y anticientíficos, precisamente los mitos son lo que nos indican los límites de nuestra percepción de lo real, los límites de nuestro pensamiento, y todos ellos tienen además en común el uso de la metáfora, la cual nos marca el transcurso de lo real como paso del tiempo en la conclusión, por eso en los seres humanos no existe el problema de la parada como en la Máquina de Turing. Yendo más lejos y abundando más aún, tanto Hegel como Kant consideraron al tiempo no categorizable, o lo que es lo mismo para el Psicoanálisis, el tiempo es una ilusión de nuestra percepción, el tiempo es una forma de representar lo real como una sucesión o transcurso de acontecimientos. Y la Lógica Descriptiva (que son una familia de lenguajes de la Representación del Conocimiento y esta a su vez está basada en la Lógica Formal) que es la base utilizada actualmente para construir la Web Semántica, no puede dar cuenta del lenguaje, pues para empezar le falta la metáfora, ya que es una lógica matemática, la cual es una lógica simbólica consistente, donde por lo tanto se considera que el sistema axiomático es completo, y sólo posee por definición y construcción la metonimia careciendo la metáfora, y por supuesto como muy bien nos demostró ya Gödel, nos lleva finalmente a contradicción, que es lo que hasta ahora pasa con todos los intentos de construir la Web Semántica desde esta base: ¡Han resultado un completo y sonoro fracaso a pesar de la inversión multimillonaria en medios!. Pero sigue faltando lo fundamental, la base adecuada para transmitir el conocimiento, que como he  dicho anteriormente necesita del lenguaje, y el lenguaje tiene dos estructuras fundamentales:

La metonimia y la metáfora. A la metonimia ya la tenemos en el lenguaje matemático, todo en él es un proceso  metonímico, y si en algún momento entra el tiempo es como una ficción, f(t) o función del tiempo, pero no hay un uso de metáfora que es lo que impediría el sin sentido del sólo sentido metonímico, no hay un uso de la metáfora que es lo que introduciría lo real y llevaría a la conclusión solucionando el problema de la parada de la máquina de Turing.

 

Luego lo que tenemos que introducir es la metáfora en los fundamentos de la matemática, la cual nos permitiría construir una lógica inconsistente, pero no por ello contradictoria, similar a la lógica del inconsciente humano como lo entiende el psicoanálisis. Si lográramos tal objetivo, tendríamos las herramientas adecuadas para implementar la Web Semántica en los ordenadores, y funcionaría.

 

Y este es mi gran reto: Inventar una lógica no consistente, que además de la metonimia presente en la lógica matemática consistente, tenga también incorporada la metáfora.

 

 

8.- ¿Porque no intentar enseñar a hablar y/o a pensar a una máquina? Limitaciones y fracasos de la aproximación de la Lógica Descriptiva.

 

Cuando estudiaba ciencias, a lo largo de mi carrera alguno de mis profesores físicos y matemáticos, y con mucha experiencia, me hicieron las dos siguientes observaciones:

 

La primera, que cuando uno se enfrenta a un problema a resolver, el problema no te pregunta cuanto sabes, para así acomodarse a tu conocimiento y poder resolverlo; esto parece una verdad de perogrullo y del más puro sentido común, pero en este caso es más cierto que nunca.

 

La segunda observación, fue que “usualmente” todos los problemas tienen una solución que está “implícita” si la pregunta del problema está bien formulada, o dicho de otra forma si el marco de referencia del problema está bien construido.

 

El recordar y reconsiderar ambas observaciones, me ha hecho cambiar totalmente mi perspectiva inicial para abordar y resolver el problema de construir la “Web Semántica”; y así en lugar de aplicar directamente mis esfuerzos en su resolución, con la profunda y densa formación tanto física como matemática que recibí en mi formación como científico, y que entiendo ha sido la actitud usual de trabajo de todos aquellos que han trabajado hasta ahora en este campo intentando resolver este problema, y hasta ahora con escaso éxito, decía entonces que he preferido alejarme del problema particular y específico, y tomar una visión más general y amplia del mismo (lo que se entiende salir del bosque para poder ver su conjunto y no a un solo árbol), y para ello como decía,  en lugar de intentar directa y rápidamente su solución, estoy dando un largo rodeo, y no absurdo ni carente de sentido de acuerdo a las dos “observaciones” iniciales anteriores, sino y formulando un marco adecuado y lo más completo posible en donde inscribir dicho problema de construir la “Web Semántica”.

 

Para ello empecé estudiando de donde se partía para construir la “Web Semántica” en informática, y se parte actualmente de la Lógica Descriptiva, la cual a su vez toma como base a la Lógica Simbólica o Lógica Matemática .

 

Entonces como sé de las limitaciones de la Lógica Simbólica o formal, reflejada en los teoremas de Gödel y en numerosas paradojas matemáticas y físicas, he ampliado mi campo de conocimiento de las ciencias puras a las Humanidades, y si de lo que se trata entonces es de enseñar a hablar a un ordenador (o lo que es equivalente que un ordenador entienda lo que decimos), estamos preguntando por el lenguaje, y por ello incorporo a la lingüística en el marco de referencia del problema.

 

Podría haber acudido también a la filosofía, pero el problema que encuentro en ella al igual que en las matemáticas puras, es que sólo contempla y usa en sus desarrollos la lógica formal como sistema único de pensamiento, y esta objeción me viene además dada por el Psicoanálisis, el cual demuestra que usando solamente la lógica propia del sujeto o persona es muy fácil engañarse y/o entrar en contradicción, y no quiero autoengañarme en el sentido más literal del término.

 

 

9.- El Pensamiento y el Lenguaje.

 

Pero además la razón de recurrir al Psicoanálisis viene dada también por la necesidad de responder a la pregunta sobré qué es la inteligencia y qué es el pensamiento, necesarios para intentar enseñar de alguna manera a pensar por sí misma a una máquina; y esta respuesta me la puede dar el Psicoanálisis en combinación con la lingüística, no la psicología ni la biología, ni la genética, pues todas ellas al igual que la filosofía sólo usan una aproximación a lo real única y exclusivamente  cuantitativa, estadística, y con una lógica exclusivamente formal, y aunque es el método ortodoxo y propio de la ciencia, la lógica formal tiene graves limitaciones tanto lógicas por una parte, porque si  nuestras hipótesis son completas el sistema entra en contradicción, y si nuestras hipótesis son incompletas entonces el sistema es consistente. Decía que el método ortodoxo de la ciencia tiene graves limitaciones, además de lo anterior, por la exigencia de comprobación experimental, pues no todo lo que existe o es real es verificable experimentalmente, de forma cuantitativa y estadística, y si no se acepta esta limitación de acceso a lo real de forma absoluta, al menos hay que tomarla como hipótesis de trabajo, pues lo que estoy diciendo es que nuestra aproximación ortodoxa del método científico es incompleta y no nos permite resolver el problema del que tratamos. Y más aún, la Mecánica Cuántica de las Ciencias Físicas nos dice que si realizamos cualquier experimento, estaremos a nuestro pesar y aunque así no lo quisiéramos, cambiando las condiciones de aislamiento del experimento en el momento que tomemos de él los resultados, debido a nuestra propia interacción con dicho experimento; por todo ello es una ilusión, fantasía y un gravísimo error, intentar construir un sistema lógico perfecto en ciencia, cuyo único y exclusivo referente y garantía sea la experimentación, y un buen ejemplo de ello es la paradoja del Gato de Schrödinger.

 

 

Según el Psicoanálisis, el ser humano tiene una realidad que va mas allá de lo meramente biológico, por ello el ser humano no sigue exclusivamente y se regula por los instintos como es propio por los animales en el campo de la biología, según el Psicoanálisis el ser humano se regula por su relación con el “Goce” (las Pulsiones o Trieb que no son Instintos) en el sentido técnico de dicho término en Psicoanálisis. La importancia de este término tan “desconocido” para el resto de la ciencia, es que marca precisa y exactamente la diferencia entre los seres humanos y todo el resto de seres  vivos. Y precisamente esta diferencia se refleja y se traduce en que somos seres hablantes, y eso nos ha permitido construir nuestra civilización, cultura y tecnología. Por ello, todo lo lejos que pudiera llegar en hacer pensar o hablar a una máquina, nunca sería equivalente a un ser humano, pues su imbricación en lo real es distinta: el ser humano siente (y piensa) por y con el “goce” y la máquina aunque pudiera pensar o hablar no podría sentir, ya que no tiene ninguna relación con la “falta” y el “goce”. Y el sentido del término sentir, me refiero técnicamente en Psicoanálisis, a la falta de no ser completo, al dolor, que experimenta todo ser humano, de una forma particular para cada sujeto o individuo, y no generalizable en el sentido experimental, estadístico y cuantitativo de la ciencia, pero aún así, que no lo pueda demostrar científicamente no significa ciertamente que no sea real; y este enlace específico y particular del ser humano con la existencia, modifica profundamente su relación con lo real, de tal manera que no es reproducible, no ya experimentalmente fuera de cada sujeto, sino y además que no podemos “crearlo” y/o “reproducirlo” en una máquina; por ello afirmo que aunque lográramos que una máquina hablara, y por extensión tuviera alguna dimensión de nuestro pensamiento, nunca sería completa en el sentido de además experimentar la falta en lo real que experimenta todo ser humano. Las únicas pruebas fehacientes en tal sentido se pueden extraer de la clínica y/o psicopatología del Psicoanálisis, y como para llegar a intentar entender algo de ello es necesario ser un erudito psicoanalítico además de haberse psicoanalizado, lo podemos tomar al menos como una hipótesis y/o premisa cierta de trabajo: Si todas las premisas y/o hipótesis que establezco son correctas, debería de poder encontrar la solución a nuestro problema, y por lo tanto son mis resultados concretos en solucionar dicho problema lo que dará efectividad a la existencia de mis hipótesis de trabajo.

 

 

10.- El Pensamiento no es lo mismo que el Lenguaje, y el Cerebro no es lo mismo que la Mente. ¿Qué es la Inteligencia?.¿Qué es el Pensamiento?.

 

Ahora y a continuación estoy intentando definir que es el pensamiento, y según el Psicoanálisis, y tal como lo entiendo y lo traduzco yo mismo, el pensamiento es la conjunción de lo “simbólico” (el lenguaje), lo “imaginario” (el acceso particular de cada sujeto al lenguaje) y lo real del sujeto mismo, todos los términos formulados en el sentido técnico estricto del Psicoanálisis (lo Real, lo Imaginario y lo Simbólico); y de esta conjunción surge el sujeto o ser humano, por ello entiendo que el lenguaje es el medio del pensamiento mismo, aunque no es el pensamiento. Y el pensamiento es lo mismo que la Inteligencia, por lo que defino también la Inteligencia como  la conjunción de lo “simbólico” (el lenguaje), lo “imaginario” (el acceso particular de cada sujeto al lenguaje) y lo real del sujeto mismo.

 

Luego no necesito llegar a profundizar más en el pensamiento y la inteligencia, ya que no puedo dar un acceso a lo real  a una máquina a través de la “falta” y/o dolor de la existencia propia de los seres humanos (que es lo que da lugar a la condensación y crea las metáforas), por lo que me quedo para los fines que perseguimos solamente con el lenguaje, que me aproximarán a alguna dimensión del pensamiento, no exactamente igual que la de los seres humanos, pero al menos más potente que la mera lógica formal, y de allí saco dos mecanismos del mismo que son los que tenemos que trasladar a nuestra máquina de alguna manera: La metonimia y la metáfora; entiendo que estos son los dos mecanismos fundamentales del lenguaje humano (y del pensamiento), y son los que tendríamos que intentar trasladar a nuestra máquina.

 

 

11.- Diferencia entre los animales y los seres humanos

 

Un comentario más acerca de la naturaleza del pensamiento y el resto de seres vivientes, o sea los animales: los animales sólo tienen acceso a lo imaginario (Estadio del Espejo), que no es el lenguaje (lo simbólico) en sí, y no acceden al lenguaje, porque, entiéndase, que el lenguaje no sólo es la capacidad de hablar y/o transmitir conocimientos, el lenguaje es la capacidad simbólica de aprehender lo real (el mundo), y ello hace que no tengan relación directa con el “Goce” y/o la “falta”, por lo que en gran y/o total medida sus comportamientos están regulados por los “Instintos”, y son factibles de experimentación, y medidas cuantitativas y estadísticas, ya que son mecanismos biológicos y genéticos, y heredados del comportamiento para la supervivencia; mientras que el acceso al lenguaje (lo simbólico) del ser humano, provoca una transformación de la mera naturaleza biológica del cerebro, haciendo surgir la “mente”, la cual está relacionada con el “goce” y la falta. Me reitero expresamente para que se entienda bien: si no hay acceso al lenguaje tampoco hay acceso al “goce” y la “falta”, pero me pregunto: ¿puede haber algún tipo de acceso al lenguaje sin acceso al “goce” y o la “falta”?, y la respuesta la tenemos en los mismos ordenadores, ya que tienen acceso parcialmente al lenguaje, a través de la lógica simbólica, pero no tienen acceso al dolor ni al goce. Por todo ello incorporar el otro mecanismo del pensamiento y/o el lenguaje, la metáfora, a una máquina es muy complicado, porque no sólo tendríamos que construir una estructura lógica que además de la metonimia propia de la lógica simbólica, incorporase además un mecanismo metafórico en la lógica formal, pero eso surge en el ser humano de su relación con la falta y el goce, luego si no puedo incorporar el goce y la falta en una máquina, tampoco puedo incorporar la metáfora, y por lo tanto no podría enseñarle a hablar ni tampoco a pensar.

 

 

12.- Conclusión: Imposibilidad del Lenguaje y Pensamiento humano en las Máquinas, y el fracaso de la Inteligencia Artificial.

 

Luego por todo lo anterior, mi programa es fallido y no es posible enseñar el lenguaje y/o el pensamiento humanos a una máquina, ya que al carecer de relación alguna con el “goce”, no es posible introducir además de la metonimia, el otro mecanismo del lenguaje y del pensamiento, cual es la metáfora. Esta última surge de los procesos de elaboración del inconsciente y es la conclusión de ellos, luego el acceso a lo real como paso del tiempo está dado por la conclusión que nos permite construir la metáfora, y como ya he dicho anteriormente, podemos construir máquinas, pero no podemos construirlas con acceso al “goce”, por lo que es imposible lograr que hablen y/o puedan pensar tal y como lo hacen los seres humanos. Y respecto de los animales, sin embargo tendría que decir, que todos los animales tienen acceso a la “falta” de la existencia, pero al no poder simbolizar, carecen de los mecanismos del pensamiento humano, cuales son la metáfora y la metonimia, y por ello no pueden construir un lenguaje, lo que a su vez les permitiría construir un sistema simbólico que pudiera crear cultura, civilización y tecnología, cual es el caso de los seres humanos. Los animales tienen solamente una estructura imaginaria (estadio del espejo), y sólo son un cuerpo biológico, pues no hay separación del mismo como hacen los seres humanos por su estructura simbólica además de la imaginaria; luego los animales sí tienen “cerebro” pero no tienen “mente”.

Inteligencia es la capacidad de entender, asimilar, elaborar información y utilizarla adecuadamente, y la inteligencia es una facultad de la mente pero no del cerebro, pero para ello es necesario tener acceso al lenguaje, pues el medio de la inteligencia es el sistema simbólico (Lacan), luego si no podemos dar acceso al lenguaje a las máquinas, ¡todo el proyecto de la Inteligencia Artificial es un proyecto fallido!.  ¡No es posible hacer hablar (y por extensión pensar) a los ordenadores construyendo una Web Semántica!

La pregunta final que me surge de toda esta elaboración es entonces: ¿Por qué los seres humanos (que somos animales también) hemos podido hablar construyendo un mundo simbólico que aprehende lo real en un orden simbólico y sin embargo el resto de los seres vivos (los animales) no han podido hacerlo?, o de otra manera: ¿Por qué si tanto los animales como los seres humanos estamos relacionados con lo real de una forma biológica similar (aunque con muy pequeñas diferencias genéticas propias de las diferencias entre todas las especies vivientes) sin embargo el hombre ha accedido a la relación con el “goce” (que le ha permitido hablar) mientras que los animales sólo se han quedado en el estadio imaginario o del espejo y no tienen relación con el “goce”? Y estoy casi absolutamente seguro que las respuestas a ellas no provienen de la biología, la genética, ni de ninguna de las neurociencias…

 

 

13.- Teorema:  “El Límite de la Inteligencia Artificial”.

 

 

Probaré que no existe en absoluto la construcción de la Inteligencia Artificial, que no se puede hacer desde las máquinas, y que no depende ni del hardware ni del software utilizado.

   

Matizando la cuestión, el límite de la Inteligencia Artificial está dado no por las máquinas y/o sistemas biológicos que se pudieran usar, sino porque la Lógica con que se intenta construir carece del uso del tiempo, ya que la lógica formal es puramente metonímica y carece de la metáfora, y eso es lo que marcan los teoremas de Gödel, la tautología final de toda construcción y /o lenguaje metonímico (matemático), que lleva a contradicciones.

  

Esta lógica consistente es opuesta a la lógica inconsistente que hace uso del tiempo, propia del insconciente humano, pero el uso del tiempo está construido en base a la falta, no en torno a lo positivo sino en base a negaciones y ausencias, y eso es imposible de reflejar en una máquina porque la percepción de la falta necesita de la conciencia de sí mismo que se adquiere con la ausencia.

   

El problema está en que pretendemos construir un sistema inteligente que sustituya nuestro pensamiento, al menos en las búsquedas de información, pero la particularidad de nuestro pensamiento humano es el uso del tiempo el que permite concluir, por eso no existe en la mente humana el problema de la parada o detención del cálculo, o lo que es lo mismo ausencia del momento de concluir. 

 

Así que todos los esfuerzos encaminados a la Inteligencia Artificial están destinados al fracaso a priori si lo que se pretende es prolongar nuestro pensamiento humano en las máquinas, ellas carecen de discurso metafórico, pues sólo son una construcción Matemática, que siempre será tautológica y metonímica, ya que además carece del uso del tiempo que es lo que lleva al corte, la conclusión o la “Parada”. 

 

Como demostración vale la del contraejemplo, o sea que si suponemos, que es posible construir la Inteligencia Artificial, como una inteligencia con capacidades similares a la inteligencia humana, que tiene el uso del tiempo, entonces si ese es un teorema general, con un solo Contraejemplo se viene abajo, y el contraejemplo está dado en el caso particular de la Máquina de Turing y el “Problema de la Parada”. 

 

Luego no se cumple la condición necesaria y suficiente del teorema, nos queda la condición necesaria que es que si un lenguaje tiene el uso del tiempo, carece de lógica formal, usa la lógica inconsistente y por lo tanto no tiene el “Problema de la Parada”, esa es condición necesaria para la Inteligencia Artificial, pero no suficiente y por ello ninguna máquina, sea de Turing, computador o dispositivo aleatorio como un cuerpo negro en física, puede alcanzar el uso de un lenguaje que no sea el matemático con la Paradoja de la Parada, consecuencia de los teoremas de Gödel. La construcción de la Inteligencia Artificial es un problema Indecidible. 

 

 

 

14.- Teorema:  De la lógica a la ontología: “El Límite de la Web Semántica”.

 

 

Probaré que no existe en absoluto la construcción de la Web Semántica, que no se puede hacer desde las máquinas, y que no depende ni del hardware ni del software utilizado.

   

Matizando la cuestión, el límite de la Web Semántica está dado no por las máquinas y/o sistemas biológicos que se pudieran usar, sino porque la Lógica con que se intenta construir carece del uso del tiempo, ya que la lógica formal es puramente metonímica y carece de la metáfora, y eso es lo que marcan los teoremas de Gödel, la tautología final de toda construcción y /o lenguaje metonímico (matemático), que lleva a contradicciones.

  

Esta lógica consistente es opuesta a la lógica inconsistente que hace uso del tiempo, propia del insconciente humano, pero el uso del tiempo está construido en base a la falta, no en torno a lo positivo sino en base a negaciones y ausencias, y eso es imposible de reflejar en una máquina porque la percepción de la falta necesita de la conciencia de sí mismo que se adquiere con la ausencia.

   

El problema está en que pretendemos construir un sistema inteligente que sustituya nuestro pensamiento, al menos en las búsquedas de información, pero la particularidad de nuestro pensamiento humano es el uso del tiempo el que permite concluir, por eso no existe en la mente humana el problema de la parada o detención del cálculo, o lo que es lo mismo ausencia del momento de concluir. 

 

Así que todos los esfuerzos encaminados a la Web Semántica están destinados al fracaso a priori si lo que se pretende es prolongar nuestro pensamiento humano en las máquinas, ellas carecen de discurso metafórico, pues sólo son una construcción Matemática, que siempre será tautológica y metonímica, ya que además carece del uso del tiempo que es lo que lleva al corte, la conclusión o la “Parada”. 

 

Como demostración vale la del contraejemplo, o sea que si suponemos, que es posible construir la Web Semántica, como un lenguaje con capacidades similares al lenguaje humano, que tiene el uso del tiempo, entonces si ese es un teorema general, con un solo Contraejemplo se viene abajo, y el contraejemplo está dado en el caso particular de la Máquina de Turing y el “Problema de la Parada”. 

 

Luego no se cumple la condición necesaria y suficiente del teorema, nos queda la condición necesaria que es que si un lenguaje tiene el uso del tiempo, carece de lógica formal, usa la lógica inconsistente y por lo tanto no tiene el “Problema de la Parada”, esa es condición necesaria para la Web Semántica, pero no suficiente y por ello ninguna máquina, sea de Turing, computador o dispositivo aleatorio como un cuerpo negro en física, puede alcanzar el uso de un lenguaje que no sea el matemático con la Paradoja de la Parada, consecuencia de los teoremas de Gödel. La construcción de la Web Semántica es un problema Indecidible. 

 

 

 

 

15.- Bibliografía y conceptos útiles.

 

 

Si usted lee los noventa y dos primeros post (a continuación más abajo) de Last Post Index & View del Blog Meta Internet, entonces puede estar seguro que entiende y conoce todos los conceptos necesarios para comprender este trabajo. 

También puede usar la búsqueda del mismo blog o buscarlos en Wikipedia en lengua inglesa y luego pinchar en idioma Español:

¡Siento las molestias pero WordPress no me ha permitido publicar los noventa y dos conceptos en Español!, ya que cuando lo hice en Inglés: 

¡Me amenazaron desde WordPress con cerrarme y clausurarme el blog con la excusa de que no había ningún trabajo original y tampoco he podido publicar en ninguna revista científica porque me dicen que no lleva matemáticas!, ¿y los teoremas por reducción al absurdo qué son entonces?

¡Y me tienen bloqueados todos los tags porque me dicen que tengo demasiados! Es cierto que tengo más de 50.000 links de enlaces pero no hay nada en su contrato de servicio que lo prohíba expresamente…

 

Computability theory (computer science) 
Computer science 
Computational complexity theory 
Semantic Web’s Terms & Companies & People & Organizations 
Information 
From Logic to Ontology: The limit of “The Semantic Web”  
Computation 
Computational problem 
Computer 
Mathematical object 
Algorithm 
Computer programming 
Programming language 
Mathematical proof 
Mathematical logic 
Syntax 
Operator Grammar 
Recursive categorical syntax 
Semantics 
Grammar 
In theoretical computer science, a formal grammar (sometimes simply called a grammar) is 
Ferdinand de Saussure 
Metaphor 
Language of thought 
Intuitionistic logic 
Propositional calculus 
First-order logic 
Second-order logic 
Infinitary logic 
Interface metaphor 
Metonymy 
Morphology (linguistics) 
Ferdinand de Saussure 
Phonology 
Language 
Natural language 
Formal language 
Theory of computation 
Formal semantics 
Specification language 
Pragmatics 
Meaning (linguistics) 
Polysemy 
Synchronic analysis 
Historical linguistics (also called diachronic linguistics) is the study of language change. 
Roman Jakobson 
Computational linguistics 
Discourse analysis 
Phonetics 
Sentence (mathematical logic) 
In theoretical computer science, a formal grammar (sometimes simply called a grammar) is a set of formation rules that describe which strings formed from the alphabet of a formal language are syntactically valid within the language. 
Chomsky hierarchy 
First-order logic is a formal logic used in mathematics, philosophy, linguistics, and computer science. 
Second-order logic 
Structuralism 
Ludwig Wittgenstein 
Claude Lévi-Strauss 
Jacques Derrida 
Jacques Lacan 
Metonymy 
Literal 
Literal and figurative language 
Trope (linguistics) 
Emphasis 
Hyperbole 
Parable 
Allegory 
Simile 
Synecdoche 
Irony 
Antanaclasis 
Rhetoric 
Semiotics 
Figure of speech 
Philosophy of language 
Sense and reference 
Connotation 
Denotation 
Reference 
Extension (semantics) 
Intension 
Intensional logic 
Web Ontology Language 
Ontology (the term in philosophy) 
Ontology (information science) 
Semantic Web 
Description logic 
Knowledge representation 
“Minds, Machines and Gödel: A Retrospect” 
Minds, Machines and Gödel — the original paper 

Read Full Post »

Teorema:  “El Límite de la Inteligencia Artificial”.

 

 

Probaré que no existe en absoluto la construcción de la Inteligencia Artificial, que no se puede hacer desde las máquinas, y que no depende ni del hardware ni del software utilizado.

   

Matizando la cuestión, el límite de la Inteligencia Artificial está dado no por las máquinas y/o sistemas biológicos que se pudieran usar, sino porque la Lógica con que se intenta construir carece del uso del tiempo, ya que la lógica formal es puramente metonímica y carece de la metáfora, y eso es lo que marcan los teoremas de Gödel, la tautología final de toda construcción y /o lenguaje metonímico (matemático), que lleva a contradicciones.

  

Esta lógica consistente es opuesta a la lógica inconsistente que hace uso del tiempo, propia del insconciente humano, pero el uso del tiempo está construido en base a la falta, no en torno a lo positivo sino en base a negaciones y ausencias, y eso es imposible de reflejar en una máquina porque la percepción de la falta necesita de la conciencia de sí mismo que se adquiere con la ausencia.

   

El problema está en que pretendemos construir un sistema inteligente que sustituya nuestro pensamiento, al menos en las búsquedas de información, pero la particularidad de nuestro pensamiento humano es el uso del tiempo el que permite concluir, por eso no existe en la mente humana el problema de la parada o detención del cálculo, o lo que es lo mismo ausencia del momento de concluir. 

 

Así que todos los esfuerzos encaminados a la Inteligencia Artificial están destinados al fracaso a priori si lo que se pretende es prolongar nuestro pensamiento humano en las máquinas, ellas carecen de discurso metafórico, pues sólo son una construcción Matemática, que siempre será tautológica y metonímica, ya que además carece del uso del tiempo que es lo que lleva al corte, la conclusión o la “Parada”. 

 

Como demostración vale la del contraejemplo, o sea que si suponemos, que es posible construir la Inteligencia Artificial, como una inteligencia con capacidades similares a la inteligencia humana, que tiene el uso del tiempo, entonces si ese es un teorema general, con un solo Contraejemplo se viene abajo, y el contraejemplo está dado en el caso particular de la Máquina de Turing y el “Problema de la Parada”. 

 

Luego no se cumple la condición necesaria y suficiente del teorema, nos queda la condición necesaria que es que si un lenguaje tiene el uso del tiempo, carece de lógica formal, usa la lógica inconsistente y por lo tanto no tiene el “Problema de la Parada”, esa es condición necesaria para la Inteligencia Artificial, pero no suficiente y por ello ninguna máquina, sea de Turing, computador o dispositivo aleatorio como un cuerpo negro en física, puede alcanzar el uso de un lenguaje que no sea el matemático con la Paradoja de la Parada, consecuencia de los teoremas de Gödel. La construcción de la Inteligencia Artificial es un problema Indecidible.

Read Full Post »

Teorema:  De la lógica a la ontología: “El Límite de la Web Semántica”.

 

 

Probaré que no existe en absoluto la construcción de la Web Semántica, que no se puede hacer desde las máquinas, y que no depende ni del hardware ni del software utilizado.

   

Matizando la cuestión, el límite de la Web Semántica está dado no por las máquinas y/o sistemas biológicos que se pudieran usar, sino porque la Lógica con que se intenta construir carece del uso del tiempo, ya que la lógica formal es puramente metonímica y carece de la metáfora, y eso es lo que marcan los teoremas de Gödel, la tautología final de toda construcción y /o lenguaje metonímico (matemático), que lleva a contradicciones.

  

Esta lógica consistente es opuesta a la lógica inconsistente que hace uso del tiempo, propia del insconciente humano, pero el uso del tiempo está construido en base a la falta, no en torno a lo positivo sino en base a negaciones y ausencias, y eso es imposible de reflejar en una máquina porque la percepción de la falta necesita de la conciencia de sí mismo que se adquiere con la ausencia.

   

El problema está en que pretendemos construir un sistema inteligente que sustituya nuestro pensamiento, al menos en las búsquedas de información, pero la particularidad de nuestro pensamiento humano es el uso del tiempo el que permite concluir, por eso no existe en la mente humana el problema de la parada o detención del cálculo, o lo que es lo mismo ausencia del momento de concluir. 

 

Así que todos los esfuerzos encaminados a la Web Semántica están destinados al fracaso a priori si lo que se pretende es prolongar nuestro pensamiento humano en las máquinas, ellas carecen de discurso metafórico, pues sólo son una construcción Matemática, que siempre será tautológica y metonímica, ya que además carece del uso del tiempo que es lo que lleva al corte, la conclusión o la “Parada”. 

 

Como demostración vale la del contraejemplo, o sea que si suponemos, que es posible construir la Web Semántica, como un lenguaje con capacidades similares al lenguaje humano, que tiene el uso del tiempo, entonces si ese es un teorema general, con un solo Contraejemplo se viene abajo, y el contraejemplo está dado en el caso particular de la Máquina de Turing y el “Problema de la Parada”. 

 

Luego no se cumple la condición necesaria y suficiente del teorema, nos queda la condición necesaria que es que si un lenguaje tiene el uso del tiempo, carece de lógica formal, usa la lógica inconsistente y por lo tanto no tiene el “Problema de la Parada”, esa es condición necesaria para la Web Semántica, pero no suficiente y por ello ninguna máquina, sea de Turing, computador o dispositivo aleatorio como un cuerpo negro en física, puede alcanzar el uso de un lenguaje que no sea el matemático con la Paradoja de la Parada, consecuencia de los teoremas de Gödel. La construcción de la Web Semántica es un problema Indecidible.

Read Full Post »


Report: Semantic Web Companies Are, or Will Soon Begin, Making Money

Written by Marshall Kirkpatrick / October 3, 2008 5:13 PM / 14 Comments


provostpic-1.jpgSemantic Web entrepreneur David Provost has published a report about the state of business in the Semantic Web and it’s a good read for anyone interested in the sector. It’s titled On the Cusp: A Global Review of the Semantic Web Industry. We also mentioned it in our post Where Are All The RDF-based Semantic Web Apps?.

The Semantic Web is a collection of technologies that makes the meaning of content online understandable by machines. After surveying 17 Semantic Web companies, Provost concludes that Semantic science is being productized, differentiated, invested in by mainstream players and increasingly sought after in the business world.

Provost aims to use real-world examples to articulate the value proposition of the Semantic Web in accessible, non-technical language. That there are enough examples available for him to do this is great. His conclusions don’t always seem as well supported by his evidence as he’d like – but the profiles he writes of 17 Semantic Web companies are very interesting to read.

What are these companies doing? Provost writes:

“..some companies are beginning to focus on specific uses of Semantic technology to create solutions in areas like knowledge management, risk management, content management and more. This is a key development in the Semantic Web industry because until fairly recently, most vendors simply sold development tools.”

 

The report surveys companies ranging from the innovative but unlaunched Anzo for Excel from Cambridge Semantics, to well-known big players like Down Jones Client Solutions and RWW sponsor Reuters Calais Initiative, to relatively unknown big players like the already very commercialized Expert System. 10 of the companies were from the US, 6 from Europe and 1 from South Korea.

semwebchart.jpgAbove: Chart from Provost’s report.We’ve been wanting to learn more about “under the radar” but commercialized semantic web companies ever since doing a briefing with Expert System a few months ago. We had never heard of the Italian company before, but they believe they already have they have a richer, deeper semantic index than anyone else online. They told us their database at the time contained 350k English words and 2.8m relationships between them. including geographic representations. They power Microsoft’s spell checker and the Natural Language Processing (NLP) in the Blackberry. They also sell NLP software to the US military and Department of Homeland Security, which didn’t seem like anything to brag about to us but presumably makes up a significant part of the $12 million+ in revenue they told Provost they made last year.

And some people say the Semantic Web only exists inside the laboratories of Web 3.0 eggheads!

Shortcomings of the Report

Provost writes that “the vendors [in] this report have all the appearances of thriving, emerging technology companies and they have shown their readiness to cross borders, continents, and oceans to reach customers.” You’d think they turned water into wine. Those are strong words for a study in which only 4 of 17 companies were willing to report their revenue and several hadn’t launched products yet.

The logic here is sometimes pretty amazing.

The above examples [there were two discussed – RWW] are just a brief sampling of the commercial success that the Semantic Web has been experiencing. In broad terms, it’s easy to point out the longevity of many companies in this industry and use that as a proxy for commercial success [wow – RWW]. With more time (and space in this report), additional examples could be described but the most interesting prospect pertains to what the industry landscape will look like in twelve months. [hmmm…-RWW]

 

In fact, while Provost has glowingly positive things to about all the companies he surveyed, the absence of engagement with any of their shortcomings makes the report read more like marketing material than any objective take on what’s supposed to be world-changing technology.

This is a Fun Read

The fact is, though, that Provost writes a great introduction to many companies working to sell software in a field still too widely believed to be ephemeral. The stories of each of the 17 companies profiled are fun to read and many of Provost’s points of analysis are both intuitive and thought provoking.

He says the sector is “on the cusp” of major penetration into existing markets currently served by non-semantic software. Provost argues that the Semantic Web struggles to explain itself because the World Wide Web is so intensely visual and semantics are not. He says that reselling business partners in specific distribution channels are combining their domain knowledge with the science of the software developers to bring these tools to market. He tells a great, if unattributed, story about what Linked Data could mean to the banking industry.

We hadn’t heard of several of the companies profiled in the report, and a handful of them had never been mentioned by the 34 semantic web specialist blogs we track, either.

There’s something here for everyone. You can read the full report here.

Read Full Post »

Google: “We’re Not Doing a Good Job with Structured Data”

Written by Sarah Perez / February 2, 2009 7:32 AM / 9 Comments


During a talk at the New England Database Day conference at the Massachusetts Institute of Technology, Google’s Alon Halevy admitted that the search giant has “not been doing a good job” presenting the structured data found on the web to its users. By “structured data,” Halevy was referring to the databases of the “deep web” – those internet resources that sit behind forms and site-specific search boxes, unable to be indexed through passive means.

Google’s Deep Web Search

Halevy, who heads the “Deep Web” search initiative at Google, described the “Shallow Web” as containing about 5 million web pages while the “Deep Web” is estimated to be 500 times the size. This hidden web is currently being indexed in part by Google’s automated systems that submit queries to various databases, retrieving the content found for indexing. In addition to that aspect of the Deep Web – dubbed “vertical searching” – Halevy also referenced two other types of Deep Web Search: semantic search and product search.

Google wants to also be able to retrieve the data found in structured tables on the web, said Halevy, citing a table on a page listing the U.S. presidents as an example. There are 14 billion such tables on the web, and, after filtering, about 154 million of them are interesting enough to be worth indexing.

Can Google Dig into the Deep Web?

The question that remains is whether or not Google’s current search engine technology is going to be adept at doing all the different types of Deep Web indexing or if they will need to come up with something new. As of now, Google uses the Big Table database and MapReduce framework for everything search related, notes Alex Esterkin, Chief Architect at Infobright, Inc., a company delivering open source data warehousing solutions. During the talk, Halevy listed a number of analytical database application challenges that Google is currently dealing with: schema auto-complete, synonym discovery, creating entity lists, association between instances and aspects, and data level synonyms discovery. These challenges are addressed by Infobright’s technology, said Esterkin, but “Google will have to solve these problems the hard way.”

Also mentioned during the speech was how Google plans to organize “aspects” of search queries. The company wants to be able to separate exploratory queries (e.g., “Vietnam travel”) from ones where a user is in search of a particular fact (“Vietnam population”). The former query should deliver information about visa requirements, weather and tour packages, etc. In a way, this is like what the search service offered by Kosmix is doing. But Google wants to go further, said Halevy. “Kosmix will give you an ‘aspect,’ but it’s attached to an information source. In our case, all the aspects might be just Web search results, but we’d organize them differently.”

Yahoo Working on Similar Structured Data Retrieval

The challenges facing Google today are also being addressed by their nearest competitor in search, Yahoo. In December, Yahoo announced that they were taking their SearchMonkey technology in-house to automate the extraction of structured information from large classes of web sites. The results of that in-house extraction technique will allow Yahoo to augment their Yahoo Search results with key information returned alongside the URLs.

In this aspect of web search, it’s clear that no single company has yet to dominate. However, even if a non-Google company surges ahead, it may not be enough to get people to switch engines. Today, “Google” has become synonymous with web search, just like “Kleenex” is a tissue, “Band-Aid” is an adhesive bandage, and “Xerox” is a way to make photocopies. Once that psychological mark has been made into our collective psyches and the habit formed, people tend to stick with what they know, regardless of who does it better. That’s something that’s a bit troublesome – if better search technology for indexing the Deep Web comes into existence outside of Google, the world may not end up using it until such point Google either duplicates or acquires the invention.

Still, it’s far too soon to write Google off yet. They clearly have a lead when it comes to search and that came from hard work, incredibly smart people, and innovative technical achievements. No doubt they can figure out this Deep Web thing, too. (We hope).

Read Full Post »

2009 Predictions and Recommendations for Web 2.0 and Social Networks

Christopher Rollyson

Volatility, Uncertainly and Opportunity—Move Crisply while Competitors Are in Disarray

Now that the Year in Review 2008 has summarized key trends, we are in excellent position for 2009 prognostications, so welcome to Part II. As all experienced executives know, risk and reward are inseparable twins, and periods of disruption elevate both, so you will have much more opportunity to produce uncommon value than normal.

This is a high-stakes year in which we can expect surprises. Web 2.0 and social networks can help because they increase flexibility and adaptiveness. Alas, those who succeed will have to challenge conventional thinking considerably, which is not a trivial exercise in normal times. The volatility that many businesses face will make it more difficult because many of their clients and/or employees will be distracted. It will also make it easier because some of them will perceive that extensive change is afoot, and Web 2.0 will blend in with the cacaphony. Disruption produces unusual changes in markets, and the people that perceive the new patterns and react appropriately emerge as new leaders.

2009 Predictions

These are too diverse to be ranked in any particular order. Please share your reactions and contribute those that I have missed.

  1. The global financial crisis will continue to add significant uncertainty in the global economy in 2009 and probably beyond. I have no scientific basis for this, but there are excellent experts of every flavor on the subject, so take your pick. I believe that we are off the map, and anyone who says that he’s sure of a certain outcome should be considered with a healthy skepticism.
    • All I can say is my friends, clients and sources in investment and commercial banking tell me it’s not over yet, and uncertainty is the only certainty until further notice. This has not yet been fully leeched.
    • Western governments, led the the U.S., are probably prolonging the pain because governments usually get bailouts wrong. However, voters don’t have the stomachs for hardship, so we are probably trading short-term “feel good” efforts for a prolonged adjustment period.
  2. Widespread social media success stories in 2009 in the most easily measurable areas such as talent management, business development, R&D and marketing.
    • 2008 saw a significant increase in enterprise executives’ experimentation with LinkedIn, Facebook, YouTube and enterprise (internal) social networks. These will begin to bear fruit in 2009, after which a “mad rush of adoption” will ensue.
    • People who delay adoption will pay dearly in terms of consulting fees, delayed staff training and retarded results.
  3. Internal social networks will largely disappoint. Similar to intranets, they will produce value, but few enterprises are viable long-term without seamlessly engaging the burgeoning external world of experts.
    In general, the larger and more disparate an organization’s audience
    is, the more value it can create, but culture must encourage emergent, cross-boundary connections, which is where many organizations fall down.

 

  • If you’re a CIO who’s banking heavily on your behind-the-firewall implementation, just be aware that you need to engage externally as well.
  • Do it fast because education takes longer than you think.
  • There are always more smart people outside than inside any organization.
  • Significant consolidation among white label social network vendors, so use your usual customary caution when signing up partners.
    • Due diligence and skill portability will help you to mitigate risks. Any vendor worth their salt will use standardized SOA-friendly architecture and feature sets. As I wrote last year, Web 2.0 is not your father’s software, so focus on people and process more than technology.
    • If your vendor hopeful imposes process on your people, run.
  • No extensive M&A among big branded sites like Facebook, LinkedIn and Twitter although there will probably be some. The concept of the social ecosystem holds that nodes on pervasive networks can add value individually. LinkedIn and Facebook have completely different social contexts. “Traditional” executives tend to view disruptions as “the new thing” that they want to put into a bucket (”let them all buy each other, so I only have to learn one!”). Wrong. This is the new human nervous system, and online social venues, like their offline counterparts, want specificity because they add more value that way. People hack together the networks to which they belong based on their goals and interests.
    • LinkedIn is very focused on the executive environment, and they will not buy Facebook or Twitter. They might buy a smaller company. They are focused on building an executive collaboration platform, and a large acquisition would threaten their focus. LinkedIn is in the initial part of its value curve, they have significant cash, and they’re profitable. Their VCs can smell big money down the road, so they won’t sell this year.
    • Twitter already turned down Facebook, and my conversations with them lead me to believe that they love their company; and its value is largely undiscovered as of yet. They will hold out as long as they can.
    • Facebook has staying power past 2009. They don’t need to buy anyone of import; they are gaining global market share at a fast clip. They already enable customers to build a large part of the Facebook experience, and they have significant room to innovate. Yes, there is a backlash in some quarters against their size. I don’t know Mark Zuckerberg personally, and I don’t have a feeling for his personal goals.
    • I was sad to see that Dow Jones sold out to NewsCorp and, as a long-time Wall Street Journal subscriber, I am even more dismayed now. This will prove a quintessential example of value destruction. The Financial Times currently fields a much better offering. The WSJ is beginning to look like MySpace! As for MySpace itself, I don’t have a firm bead on it but surmise that it has a higher probability of major M&A than the aforementioned: its growth has stalled, Facebook continues to gain, and Facebook uses more Web 2.0 processes, so I believe it will surpass MySpace in terms of global audience.
    • In being completely dominant, Google is the Wal-Mart of Web 2.0, and I don’t have much visibility into their plans, but I think they could make significant waves in 2009. They are very focused on applying search innovation to video, which is still in the initial stages of adoption, so YouTube is not going anywhere.
    • I am less familiar with Digg, Xing, Bebo, Cyworld. Of course, Orkut is part of the Googleverse.
  • Significant social media use by the Obama Administration. It has the knowledge, experience and support base to pursue fairly radical change. Moreover, the degree of change will be in synch with the economy: if there is a significant worsening, expect the government to engage people to do uncommon things.
    • Change.gov is the first phase in which supporters or any interested person is invited to contribute thoughts, stories and documents to the transition team. It aims to keep people engaged and to serve the government on a volunteer basis
    • The old way of doing things was to hand out form letters that you would mail to your representative. Using Web 2.0, people can organize almost instantly, and results are visible in real-time. Since people are increasingly online somewhere, the Administration will invite them from within their favorite venue (MySpace, Facebook…).
    • Obama has learned that volunteering provides people with a sense of meaning and importance. Many volunteers become evangelists.
  • Increasing citizen activism against companies and agencies, a disquieting prospect but one that I would not omit from your scenario planning (ask yourself, “How could people come together and magnify some of our blemishes?” more here). To whit:
    • In 2007, an electronic petition opposing pay-per-use road tolls in the UK reached 1.8 million signatories, stalling a major government initiative. Although this did not primarily employ social media, it is indicative of the phenomenon.
    • In Q4 2008, numerous citizen groups organized Facebook groups (25,000 signatures in a very short time) to oppose television and radio taxes, alarming the Swiss government. Citizens are organizing to stop paying obligatory taxes—and to abolish the agency that administers the tax system. Another citizen initiative recently launched on the Internet collected 60,000 signatures to oppose biometric passports. German links. French links.
    • In the most audacious case, Ahmed Maher is using Facebook to try to topple the government of Egypt. According to Wired’s Cairo Activists Use Facebook to Rattle Regime, activists have organized several large demonstrations and have a Facebook group of 70,000 that’s growing fast.
  • Executive employment will continue to feel pressure, and job searches will get increasingly difficult for many, especially those with “traditional” jobs that depend on Industrial Economy organization.
    • In tandem with this, there will be more opportunities for people who can “free-agent” themselves in some form.
    • In 2009, an increasing portion of executives will have success at using social networks to diminish their business development costs, and their lead will subsequently accelerate the leeching of enterprises’ best and brightest, many of whom could have more flexibility and better pay as independents. This is already manifest as displaced executives choose never to go back.
    • The enterprise will continue to unbundle. I have covered this extensively on the Transourcing website.
  • Enterprise clients will start asking for “strategy” to synchronize social media initiatives. Web 2.0 is following the classic adoption pattern: thus far, most enterprises have been using a skunk works approach to their social media initiatives, or they’ve been paying their agencies to learn while delivering services.
    • In the next phase, beginning in 2009, CMOs, CTOs and CIOs will sponsor enterprise level initiatives, which will kick off executive learning and begin enterprise development of social media native skills. After 1-2 years of this, social media will be spearheaded by VPs and directors.
    • Professional services firms (PwC, KPMG, Deloitte..) will begin scrambling to pull together advisory practices after several of their clients ask for strategy help. These firms’ high costs do not permit them to build significantly ahead of demand.
    • Marketing and ad agencies (Leo Burnett, Digitas…) will also be asked for strategy help, but they will be hampered by their desires to maintain the outsourced model; social media is not marketing, even though it will displace certain types of marketing.
    • Strategy houses (McKinsey, BCG, Booz Allen…) will also be confronted by clients asking for social media strategy; their issue will be that it is difficult to quantify, and the implementation piece is not in their comfort zone, reducing revenue per client.
    • Boutiques will emerge to develop seamless strategy and implementation for social networks. This is needed because Web 2.0 and social networks programs involve strategy, but implementation involves little technology when compared to Web 1.0. As I’ll discuss in an imminent article, it will involve much more interpersonal mentoring and program development.
  • Corporate spending on Enterprise 2.0 will be very conservative, and pureplay and white label vendors (and consultants) will need to have strong business cases.
    • CIOs have better things to spend money on, and they are usually reacting to business unit executives who are still getting their arms around the value of Web 2.0, social networks and social media.
    • Enterprise software vendors will release significant Web 2.0 bolt-on improvements to their platforms in 2009. IBM is arguably out in front with Lotus Connections, with Microsoft Sharepoint fielding a solid solution. SAP and Oracle will field more robust solutions this year.
  • The financial crunch will accelerate social network adoption among those focused on substance rather than flash; this is akin to the dotbomb from 2001-2004, no one wanted to do the Web as an end in itself anymore; it flushed out the fluffy offers (and well as some really good ones).
    • Social media can save money.. how much did it cost the Obama campaign in time and money to raise $500 million? Extremely little.
    • People like to get involved and contribute, when you can frame the activity as important and you provide the tools to facilitate meaningful action. Engagement raises profits and can decrease costs. Engaged customers, for example, tend to leave less often than apathetic customers.
    • Social media is usually about engaging volunteer contributors; if you get it right, you will get a lot of help for little cash outlay.
    • Social media presents many new possibilities for revenue, but to see them, look outside existing product silos. Focus on customer experience by engaging customers, not with your organization, but with each other. Customer-customer communication is excellent for learning about experience.
  • Microblogging will completely mainstream even though Twitter is still quite emergent and few solid business cases exist.
    • Twitter (also Plurk, Jaiku, Pownce {just bought by Six Apart and closed}, Kwippy, Tumblr) are unique for two reasons: they incorporate mobility seamlessly, and they chunk communications small; this leads to a great diversity of “usage context”
    • Note that Dell sold $1 million on Twitter in 2008, using it as a channel for existing business.
    • In many businesses, customers will begin expecting your organization to be on Twitter; this year it will rapidly cease to be a novelty.

    2009 Recommendations

    Web 2.0 will affect business and culture far more than Web 1.0 (the internet), which was about real-time information access and transactions via a standards-based network and interface. Web 2.0 enables real-time knowledge and relationships, so it will profoundly affect most organizations’ stakeholders (clients, customers, regulators, employees, directors, investors, the public…). It will change how all types of buying decisions are made.

    As an individual and/or an organization leader, you have the opportunity to adopt more quickly than your peers and increase your relevance to stakeholders as their Web 2.0 expectations of you increase. 2009 will be a year of significant adoption, and I have kept this list short, general and actionable. I have assumed that your organization has been experimenting with various aspects of Web 2.0, that some people have moderate experience. Please feel free to contact me if you would like more specific or advanced information or suggestions. Recommendations are ranked in importance, the most critical at the top.

    1. What: Audit your organization’s Web 2.0 ecosystem, and conduct your readiness assessment. Why: Do this to act with purpose, mature your efforts past experimentation and increase your returns on investment.
      • The ecosystem audit will tell you what stakeholders are doing, and in what venues. Moreover, a good one will tell you trends, not just numbers. In times of rapid adoption, knowing trends is critical, so you can predict the future. Here’s more about audits.
      • The readiness assessment will help you to understand how your value proposition and resources align with creating and maintaining online relationships. The audit has told you what stakeholders are doing, now you need to assess what you can do to engage them on an ongoing basis. Here’s more about readiness assessments.
    2. What: Select a top executive to lead your organization’s adoption of Web 2.0 and social networks. Why: Web 2.0 is changing how people interact, and your organizational competence will be affected considerably, so applying it to your career and business is very important.
      • This CxO should be someone with a track record for innovation and a commitment to leading discontinuous change. Should be philosophically in synch with the idea of emergent organization and cross-boundary collaboration.
      • S/He will coordinate your creation of strategy and programs (part-time). This includes formalizing your Web 2.0 policy, legal and security due diligence.
    3. What: Use an iterative portfolio approach to pursue social media initiatives in several areas of your business, and chunk investments small.
      Why: Both iteration and portfolio approaches help you to manage risk and increase returns.
    • Use the results of the audit and the readiness assessment to help you to select the stakeholders you want to engage.
    • Engage a critical mass of stakeholders about things that inspire or irritate them and that you can help them with.
    • All else equal, pilots should include several types of Web 2.0 venues and modes like blogs, big branded networks (Facebook, MySpace), microblogs (Twitter), video and audio.
    • As a general rule, extensive opportunity exists where you can use social media to cross boundaries, which usually impose high costs and prevent collaboration. One of the most interesting in 2009 will be encouraging alumni, employees and recruits to connect and collaborate according to their specific business interests. This can significantly reduce your organization’s business development, sales and talent acquisition costs. For more insight to this, see Alumni 2.0.
    • Don’t overlook pilots with multiple returns, like profile management programs, which can reduce your talent acquisition and business development costs. Here’s more on profile management.

     

  • What: Create a Web 2.0 community with numerous roles to enable employees flexibility.
    Why: You want to keep investments small and let the most motivated employees step forward.

    • Roles should include volunteers for pilots, mentors (resident bloggers, video producers and others), community builders (rapidly codify the knowledge you are gathering from pilots), some part-time more formal roles. Perhaps a full-time person to coordinate would make sense. Roles can be progressive and intermittent. Think of this as open source.
    • To stimulate involvement, the program must be meaningful, and it must be structured to minimize conflicts with other responsibilities.
  • What: Avoid the proclivity to treat Web 2.0 as a technology initiative. Why: Web 1.0 (the Internet) involved more of IT than does Web 2.0, and many people are conditioned to think that IT drives innovation; they fall in the tech trap, select tools first and impose process. This is old school and unnecessary because the tools are far more flexible than the last generation software with which many are still familiar.
    • People create the value when they get involved, and technology often gets in the way by making investments in tools that impose process on people and turn them off. Web 2.0 tools impose far less process on people.
    • More important than what brand you invest in is your focus on social network processes and how they add value to existing business processes. If you adopt smartly, you will be able to transfer assets and processes elsewhere while minimizing disruption. More likely is that some brands will disappear (Pownce closed its doors 15 December). When you focus your organization on mastering process and you distribute learning, you will be more flexible with the tools.
    • Focus on process and people, and incent people to gather and share knowledge and help each other. This will increase your flexibility with tools.
  • What: Manage consulting, marketing and technology partners with a portfolio strategy. Why: Maximize flexibility and minimize risk.
    • From the technology point of view, there are three main vendor flavors: enterprise bolt-on (i.e. Lotus Connections), pureplay white label vendors (SmallWorldLabs) and open (Facebook, LinkedIn). As a group, pureplays have the most diversity in terms of business models, and the most uncertainty. Enterprise bolt-ons’ biggest risk is that they lag significantly behind. More comparisons here.
    • Fight the urge to go with one. If you’re serious about getting business value, you need to be in the open cross-boundary networks. If you have a Lotus or Microsoft relationship, compare Connections and Sharepoint with some pureplays to address private social network needs. An excellent way to start could be with Yammer.
    • Be careful when working with consulting- and marketing-oriented partners who are accustomed to an outsourced model. Web 2.0 is not marketing; it is communicating to form relationships and collaborate online. It does have extensive marketing applications; make sure partners have demonstrated processes for mentoring because Web 2.0 will be a core capability for knowledge-based organizations, and you need to build your resident knowledge.
  • Parting Shots

    I hope you find these thoughts useful, and I encourage you to add your insights and reactions as comments. If you have additional questions about how to use Web 2.0, please feel free to contact me. I wish all the best to you in 2009.

    Read Full Post »

    Evolving Trends

    Wikipedia 3.0: The End of Google?

    In Uncategorized on June 26, 2006 at 5:18 am

    Author: Marc Fawzi

    License: Attribution-NonCommercial-ShareAlike 3.0

    Announcements:

    Semantic Web Developers:

    Feb 5, ‘07: The following external reference concerns the use of rule-based inference engines and ontologies in implementing the Semantic Web + AI vision (aka Web 3.0):

    1. Description Logic Programs: Combining Logic Programs with Description Logic (note: there are better, simpler ways of achieving the same purpose.)

    Click here for more info and a list of related articles…

    Forward

    Two years after I published this article it has received over 200,000 hits and we now have several startups attempting to apply Semantic Web technology to Wikipedia and knowledge wikis in general, including Wikipedia founder’s own commercial startup as well as a startup that was recently purchased by Microsoft.

    Recently, after seeing how Wikipedia’s governance is so flawed, I decided to write about a way to decentralize and democratize Wikipedia.

    Versión española

    Article

    (Article was last updated at 10:15am EST, July 3, 2006)

    Wikipedia 3.0: The End of Google?

     

    The Semantic Web (or Web 3.0) promises to “organize the world’s information” in a dramatically more logical way than Google can ever achieve with their current engine design. This is specially true from the point of view of machine comprehension as opposed to human comprehension.The Semantic Web requires the use of a declarative ontological language like OWL to produce domain-specific ontologies that machines can use to reason about information and make new conclusions, not simply match keywords.

    However, the Semantic Web, which is still in a development phase where researchers are trying to define the best and most usable design models, would require the participation of thousands of knowledgeable people over time to produce those domain-specific ontologies necessary for its functioning.

    Machines (or machine-based reasoning, aka AI software or ‘info agents’) would then be able to use those laboriously –but not entirely manually– constructed ontologies to build a view (or formal model) of how the individual terms within the information relate to each other. Those relationships can be thought of as the axioms (assumed starting truths), which together with the rules governing the inference process both enable as well as constrain the interpretation (and well-formed use) of those terms by the info agents to reason new conclusions based on existing information, i.e. to think. In other words, theorems (formal deductive propositions that are provable based on the axioms and the rules of inference) may be generated by the software, thus allowing formal deductive reasoning at the machine level. And given that an ontology, as described here, is a statement of Logic Theory, two or more independent info agents processing the same domain-specific ontology will be able to collaborate and deduce an answer to a query, without being driven by the same software.

    Thus, and as stated, in the Semantic Web individual machine-based agents (or a collaborating group of agents) will be able to understand and use information by translating concepts and deducing new information rather than just matching keywords.

    Once machines can understand and use information, using a standard ontology language, the world will never be the same. It will be possible to have an info agent (or many info agents) among your virtual AI-enhanced workforce each having access to different domain specific comprehension space and all communicating with each other to build a collective consciousness.

    You’ll be able to ask your info agent or agents to find you the nearest restaurant that serves Italian cuisine, even if the restaurant nearest you advertises itself as a Pizza joint as opposed to an Italian restaurant. But that is just a very simple example of the deductive reasoning machines will be able to perform on information they have.

    Far more awesome implications can be seen when you consider that every area of human knowledge will be automatically within the comprehension space of your info agents. That is because each info agent can communicate with other info agents who are specialized in different domains of knowledge to produce a collective consciousness (using the Borg metaphor) that encompasses all human knowledge. The collective “mind” of those agents-as-the-Borg will be the Ultimate Answer Machine, easily displacing Google from this position, which it does not truly fulfill.

    The problem with the Semantic Web, besides that researchers are still debating which design and implementation of the ontology language model (and associated technologies) is the best and most usable, is that it would take thousands or tens of thousands of knowledgeable people many years to boil down human knowledge to domain specific ontologies.

    However, if we were at some point to take the Wikipedia community and give them the right tools and standards to work with (whether existing or to be developed in the future), which would make it possible for reasonably skilled individuals to help reduce human knowledge to domain-specific ontologies, then that time can be shortened to just a few years, and possibly to as little as two years.

    The emergence of a Wikipedia 3.0 (as in Web 3.0, aka Semantic Web) that is built on the Semantic Web model will herald the end of Google as the Ultimate Answer Machine. It will be replaced with “WikiMind” which will not be a mere search engine like Google is but a true Global Brain: a powerful pan-domain inference engine, with a vast set of ontologies (a la Wikipedia 3.0) covering all domains of human knowledge, that can reason and deduce answers instead of just throwing raw information at you using the outdated concept of a search engine.

    Notes

    After writing the original post I found out that a modified version of the Wikipedia application, known as “Semantic” MediaWiki has already been used to implement ontologies. The name that they’ve chosen is Ontoworld. I think WikiMind would have been a cooler name, but I like ontoworld, too, as in “it descended onto the world,” since that may be seen as a reference to the global mind a Semantic-Web-enabled version of Wikipedia could lead to.

    Google’s search engine technology, which provides almost all of their revenue, could be made obsolete in the near future. That is unless they have access to Ontoworld or some such pan-domain semantic knowledge repository such that they tap into their ontologies and add inference capability to Google search to build formal deductive intelligence into Google.

    But so can Ask.com and MSN and Yahoo…

    I would really love to see more competition in this arena, not to see Google or any one company establish a huge lead over others.

    The question, to rephrase in Churchillian terms, is wether the combination of the Semantic Web and Wikipedia signals the beginning of the end for Google or the end of the beginning. Obviously, with tens of billions of dollars at stake in investors’ money, I would think that it is the latter. No one wants to see Google fail. There’s too much vested interest. However, I do want to see somebody out maneuver them (which can be done in my opinion.)

    Clarification

    Please note that Ontoworld, which currently implements the ontologies, is based on the “Wikipedia” application (also known as MediaWiki), but it is not the same as Wikipedia.org.

    Likewise, I expect Wikipedia.org will use their volunteer workforce to reduce the sum of human knowledge that has been entered into their database to domain-specific ontologies for the Semantic Web (aka Web 3.0) Hence, “Wikipedia 3.0.”

    Response to Readers’ Comments

    The argument I’ve made here is that Wikipedia has the volunteer resources to produce the needed Semantic Web ontologies for the domains of knowledge that it currently covers, while Google does not have those volunteer resources, which will make it reliant on Wikipedia.

    Those ontologies together with all the information on the Web, can be accessed by Google and others but Wikipedia will be in charge of the ontologies for the large set of knowledge domains they currently cover, and that is where I see the power shift.

    Google and other companies do not have the resources in man power (i.e. the thousands of volunteers Wikipedia has) who would help create those ontologies for the large set of knowledge domains that Wikipedia covers. Wikipedia does, and is positioned to do that better and more effectively than anyone else. Its hard to see how Google would be able create the ontologies for all domains of human knowledge (which are continuously growing in size and number) given how much work that would require. Wikipedia can cover more ground faster with their massive, dedicated force of knowledgeable volunteers.

    I believe that the party that will control the creation of the ontologies (i.e. Wikipedia) for the largest number of domains of human knowledge, and not the organization that simply accesses those ontologies (i.e. Google), will have a competitive advantage.

    There are many knowledge domains that Wikipedia does not cover. Google will have the edge there but only if people and organizations that produce the information also produce the ontologies on their own, so that Google can access them from its future Semantic Web engine. My belief is that it would happen but very slowly, and that Wikipedia can have the ontologies done for all the domain of knowledge that it currently covers much faster, and then they would have leverage by the fact that they would be in charge of those ontologies (aka the basic layer for AI enablement.)

    It still remains unclear, of course, whether the combination of Wikipedia and the Semantic Web herald the beginning of the end for Google or the end of the beginning. As I said in the original part of the post, I believe that it is the latter, and the question I pose in the title of this post, in this context, is not more than rhetorical. However, I could be wrong in my judgment and Google could fall behind Wikipedia as the world’s ultimate answer machine.

    After all, Wikipedia makes “us” count. Google doesn’t. Wikipedia derives its power from “us.” Google derives its power from its technology and inflated stock price. Who would you count on to change the world?

    Response to Basic Questions Raised by the Readers

    Reader divotdave asked a few questions, which I thought to be very basic in nature (i.e. important.) I believe more people will be pondering about the same issues, so I’m to including here them with the replies.

    Question:
    How does it distinguish between good information and bad? How does it determine which parts of the sum of human knowledge to accept and which to reject?

    Reply:
    It wouldn’t have to distinguish between good vs bad information (not to be confused with well-formed vs badly formed) if it was to use a reliable source of information (with associated, reliable ontologies.) That is if the information or knowledge to be sought can be derived from Wikipedia 3.0 then it assumes that the information is reliable.

    However, with respect to connecting the dots when it comes to returning information or deducing answers from the sea of information that lies beyond Wikipedia then your question becomes very relevant. How would it distinguish good information from bad information so that it can produce good knowledge (aka comprehended information, aka new information produced through deductive reasoning based on exiting information.)

    Question:
    Who, or what as the case may be, will determine what information is irrelevant to me as the inquiring end user?

    Reply:
    That is a good question and one which would have to be answered by the researchers working on AI engines for Web 3.0

    There will be assumptions made as to what you are inquiring about. Just as when I saw your question I had to make assumption about what you really meant to ask me, AI engines would have to make an assumption, pretty much based on the same cognitive process humans use, which is the topic of a separate post, but which has been covered by many AI researchers.

    Question:
    Is this to say that ultimately some over-arching standard will emerge that all humanity will be forced (by lack of alternative information) to conform to?

    Reply:
    There is no need for one standard, except when it comes to the language the ontologies are written in (e.g OWL, OWL-DL, OWL Full etc.) Semantic Web researchers are trying to determine the best and most usable choice, taking into consideration human and machine performance in constructing –and exclusive in the latter case– interpreting those ontologies.

    Two or more info agents working with the same domain-specific ontology but having different software (different AI engines) can collaborate with each other.

    The only standard required is that of the ontology language and associated production tools.

    Addendum

    On AI and Natural Language Processing

    I believe that the first generation of AI that will be used by Web 3.0 (aka Semantic Web) will be based on relatively simple inference engines that will NOT attempt to perform natural language processing, where current approaches still face too many serious challenges. However, they will still have the formal deductive reasoning capabilities described earlier in this article, and users would interact with these systems through some query language.

    On the Debate about the Nature and Definition of AI

    The embedding of AI into cyberspace will be done at first with relatively simple inference engines (that use algorithms and heuristics) that work collaboratively in P2P fashion and use standardized ontologies. The massively parallel interactions between the hundreds of millions of AI Agents that will run within the millions of P2P AI Engines on users’ PCs will give rise to the very complex behavior that is the future global brain.

    Related:

    1. Web 3.0 Update
    2. All About Web 3.0 <– list of all Web 3.0 articles on this site
    3. P2P 3.0: The People’s Google
    4. Reality as a Service (RaaS): The Case for GWorld <– 3D Web + Semantic Web + AI
    5. For Great Justice, Take Off Every Digg
    6. Google vs Web 3.0
    7. People-Hosted “P2P” Version of Wikipedia
    8. Beyond Google: The Road to a P2P Economy


    Update on how the Wikipedia 3.0 vision is spreading:


    Update on how Google is co-opting the Wikipedia 3.0 vision:



    Web 3D Fans:

    Here is the original Web 3D + Semantic Web + AI article:

    Web 3D + Semantic Web + AI *

    The above mentioned Web 3D + Semantic Web + AI vision which preceded the Wikipedia 3.0 vision received much less attention because it was not presented in a controversial manner. This fact was noted as the biggest flaw of social bookmarking site digg which was used to promote this article.

    Web 3.0 Developers:

    Feb 5, ‘07: The following external reference concerns the use of rule-based inference engines and ontologies in implementing the Semantic Web + AI vision (aka Web 3.0):

    1. Description Logic Programs: Combining Logic Programs with Description Logic (note: there are better, simpler ways of achieving the same purpose.)

    Jan 7, ‘07: The following Evolving Trends post discusses the current state of semantic search engines and ways to improve the paradigm:

    1. Designing a Better Web 3.0 Search Engine

    June 27, ‘06: Semantic MediaWiki project, enabling the insertion of semantic annotations (or metadata) into the content:

    1. http://semantic-mediawiki.org/wiki/Semantic_MediaWiki (see note on Wikia below)

    Wikipedia’s Founder and Web 3.0

    (more…)

    Read Full Post »

    Older Posts »

    %d bloggers like this: