Feeds:
Posts
Comments

Posts Tagged ‘artificial intelligence’

Theorem: “The limit of The Artificial Intelligence”.

 

 

The limit of the Artificial Intelligence are not set by the use of machines themselves, and biological systems could be used to reach this goal, but as the Logic that is being used to construct it does not contemplate the concept of time, since it is purely formal logic and metonymic lacks the metaphor, and this is what Gödel’s theorems remark, the final tautology of each construction or metonymic mathematical language, which leads to inconsistencies. The construction of the Artificial Intelligence is an Undecidible Problem .

 

This consistent logic is completely opposite to the logic that makes inconsistent use of time, inherent of human unconscious, but the use of time is built on the lack, not on positive things, it is based on denials and absences, and this is impossible to reflect on a machine because of the perceived lack of the required self-awareness is acquired with the absence.

 

The problem of Artificial Intelligence is that we are trying to build an Intelligence system to replace our way of thinking, at least in the information search, but the special nature of human mind is the use of metaphor which lets human beings reach a conclusion, therefore does not exist in the human mind the Halting Problem or stop of calculation.

 

If you suppose as a theorem, that it is possible to construct a machine, with a Intelligence with capabilities similar to human Intelligence, should we face it as a theorem, we can prove it to be false with a Counter Example, and it is given in the particular case of the Turing machine and “the halting problem” or stop of calculation.

 

So all efforts faced toward Artificial Intelligence are doomed to failure a priori if the aim is to extend our human way of thinking into machines, they lack the metaphorical speech, because only a mathematical construction, which will always be tautological and metonymic, and lacks the use of metaphor that is what leads to the conclusion or “stop”.

Read Full Post »

Theorem: From Logic to Ontology: The limit of “The Semantic Web”.

 

 

The limit of the Semantic Web are not set by the use of machines themselves, and biological systems could be used to reach this goal, but as the Logic that is being used to construct it does not contemplate the concept of time, since it is purely formal logic and metonymic lacks the metaphor, and this is what Gödel’s theorems remark, the final tautology of each construction or metonymic Mathematical Language , which leads to inconsistencies. The construction of the Semantic Web is an Undecidible Problem .

 

This consistent logic is completely opposite to the logic that makes inconsistent use of time, inherent of human unconscious, but the use of time is built on the lack, not on positive things, it is based on denials and absences, and this is impossible to reflect on a machine because of the perceived lack of the required self-awareness is acquired with the absence.

 

The problem is we are trying to build an intelligent system to replace our way of thinking, at least in the information search, but the special nature of human mind is the use of time which lets human beings reach a conclusion, therefore does not exist in the human mind the Halting Problem or stop of calculation.

 

So all efforts faced toward semantic web are doomed to failure a priori if the aim is to extend our human way of thinking into machines, they lack the metaphorical speech, because only a mathematical construction, which will always be tautological and metonymic, and lacks the use of the time that is what leads to the conclusion or “stop”.

 

As a demonstration of that, if you suppose it is possible to construct the semantic web, as a language with capabilities similar to human language, which has the use of time, should we face it as a theorem, we can prove it to be false with a Counter Example, and it is given in the particular case of the Turing machine and “the halting problem”.

Read Full Post »

Cerebro, Computadoras y Mente: Del Lenguaje y del Pensamiento de los Seres Humanos, las Máquinas y los Animales. El fracaso de la Inteligencia Artificial y de la Web Semántica.

 

Francisco Antonio Cerón García

Physic’s Spanish Real Society

fcerong@gmail.com

 

Índice

 

1.- Introducción                                                                    1

    

2.- Situación actual de la Ciencia de la Computación.        3

 

3.- Los límites de las herramientas de la Ciencia: la Lógica Formal y la Experimentación                                               4

 

4.- Los mecanismos fundamentales del Lenguaje y del Pensamiento.                                                                      8

 

5.- Estructuralismo.                                                             9

 

6.- Conocimiento y Transmisión del Conocimiento.          11

 

7.- Naturaleza y Representación del Conocimiento.         14

 

8.- ¿Porque no intentar enseñar a hablar y/o a pensar a una máquina? Limitaciones y fracasos de la aproximación de la Lógica Descriptiva.                                                   17

 

9.- El Pensamiento y el Lenguaje.                                     19

 

10.- El Pensamiento no es lo mismo que el Lenguaje, y el Cerebro no es lo mismo que la Mente. ¿Qué es la Inteligencia?. ¿Qué es el Pensamiento?.                          20

 

11.- Diferencia entre los animales y los seres humanos    21

 

12.- Conclusión: Imposibilidad del Lenguaje y Pensamiento humano en las Máquinas, y el fracaso de la Inteligencia Artificial y de la Web Semántica.                                        23

 

13.- Teorema: “El Límite de la Inteligencia Artificial”.         25 

 

14.- Teorema:  De la lógica a la ontología: “El Límite de la Web Semántica”.                                                                27

 

15.- Bibliografía.                                                                 29                                                                                                                         

 

 

 

 

1.- Introducción

 

De la lectura de “Minds, Machines and Gödel”  por
J.R. Lucas
, y de otros autores como Roger Penrose, hay un numeroso trabajo previo de argumentación de la imposibilidad de hacer pensar y/o hablar a las máquinas u ordenadores.

 

 

La metonimia, el primer mecanismo del pensamiento y el lenguaje humano, ya la tenemos incorporada en las máquinas u ordenadores, es el sustrato mismo de la Lógica Simbólica y/o formal (y por lo tanto también de las Matemáticas), pero nos falta la metáfora, que es lo que a los seres humanos nos permite “concluir” en el sentido estricto del término en Psicoanálisis, la metáfora nos introduce en lo real como paso del tiempo.

 

Y este es mi gran reto: Inventar una lógica o no consistente o no completa (pero no ambas a la vez como pretende la lógica formal), que además de la metonimia presente en la lógica matemática consistente, tenga también incorporada la metáfora.

 

 

2.- Situación actual de la Ciencia de la Computación.

 

El intento de construir la Web Semántica a partir de la Lógica Descriptiva, la cual a su vez toma como base a la Lógica Simbólica o Lógica Matemática, es contradictorio e incoherente, pues aunque la lógica simbólica o matemática es consistente, sin embargo por definición sólo tiene sentido único o unívoco (significado único), lo cual es totalmente contradictorio con la semántica del lenguaje (natural) ,  la cual es de sentido ambigua o multívoca (varios significados).

 

Si lo que perseguimos es, por ejemplo, como una aplicación de la Web Semántica, cuando hacemos una búsqueda en Google, obtener unos pocos y precisos resultados, en lugar de los varios millones de ambiguos que se suelen obtener, tenemos que partir de otras herramientas más adecuadas al lenguaje, que tengan sentido multívoco y no sólo unívoco, y por lo tanto hay que construir nuevas herramientas en lugar de las ya existentes que tomen en cuenta dicha diferencia.

 

Tenemos que acudir a las Ciencias que estudian el lenguaje, y más aún, a las Ciencias que estudian el pensamiento y la mente humana, allí podemos encontrar las herramientas que buscamos, y proyectarlas, si es posible, sobre las Matemáticas, inventando, si es necesario, una nueva lógica menos parcial que la Lógica Formal, la Lógica Simbólica y/o matemática actual, que nos dé lugar a una nueva y distinta lógica que la Lógica Descriptiva actual, que constituye un completo y sonoro fracaso en semantizar  Internet.

 

Todo lo anterior tiene sentido si analizamos el marco en el que se ha desarrollado el conocimiento humano, desde inclusive la misma prehistoria. A grandes y fundamentales rasgos, y de forma también muy simplificada, lo único que nos diferencia verdaderamente de los animales es que somos “seres hablantes”, o lo que es lo mismo, que hacemos uso del lenguaje, y lo importante en nuestro caso es que hacemos uso del lenguaje como medio de comunicación, lo que nos ha servido para la transmisión de conocimientos a lo largo de toda la historia de la humanidad.

 

Lo único que verdaderamente a cambiado la manera de transmisión de lo exclusivamente oral (habla), ha sido la invención de la escritura, que ha permitido la perdurabilidad y acumulación sucesiva de los conocimientos, desde el papel de papiro y las tablas de arcilla, pasando por los libros manuscritos y llegando a  la invención de la imprenta por Gutenberg. Con esta última abaratamos sustancialmente los costes de transmisión del conocimiento, y posteriormente con el invento de Internet (y los ordenadores) disminuimos el coste de transmisión de los conocimientos a casi cero (al menos en los países desarrollados); así el conocimiento, por primera vez en la historia de la humanidad, está hoy día casi al alcance de todo el mundo y no unos pocos privilegiados, como por ejemplo en el medioevo.

 

Pero ahora si además lográramos “semantizar” Internet, donde “la Web Semántica es una visión de la información que sea comprensible por los ordenadores, de modo que puedan realizar mejor el tedioso trabajo de encontrar, compartir y combinar la información de la Web”, el ahorro ya no sólo sería una cuestión económica y monetaria, el ahorro además sería de economía del tiempo de pensamiento, o lo que es lo mismo del tiempo necesario para buscar y encontrar el conocimiento.

 

Por otra parte, además de la reseña histórica y en los rasgos fundamentales en la transmisión del conocimiento y su logro correspondiente, que es toda la civilización humana, hay que “enmarcar”, definir el marco en el cual se ha realizado el mismo en toda la historia de la humanidad, y no es un tema banal y sin importancia ni mucho menos, sino y de la mayor importancia. Hoy día hay ciencias específicas del estudio del conocimiento como la Epistemología, Gnoseología y otras. Pero aún así necesitamos más herramientas de otras áreas, como el Psicoanálisis, la Lingüística, etc. Lo cual fundamentaré a continuación.

 

 

3.- Los límites de las herramientas de la Ciencia: la Lógica Formal y la Experimentación.

 

Primeramente quiero decir que el enfoque “neurocientífico”, donde todo lo relacionado al ser humano tiene una explicación y aplicación directa exclusivamente  “neurológica” y/o “biológica”, cuando no y además “genética”, es incompleto y muy parcial. La hipótesis de trabajo fundamental de toda  la Ciencia actual es que la Mente y el Cerebro son iguales o equivalentes, y todo ello viene dado y ocasionado por la preponderancia y exclusividad en la Ciencia de los métodos estadísticos y estocásticos, cuantitativos (despreciando y excluyendo lo cualitativo), y lógicos formales, estos últimos aunque rigurosos sin embargo son incompletos y/o contradictorios tal y como nos muestran múltiples resultados y paradojas tanto en Matemáticas (Teoremas de Gödel), como en otras áreas de la Ciencia. Pero el ser humano con el lenguaje va mucho más allá de dicho reduccionismocientífico” (considerando a la Ciencia como un sistema  sólo y exclusivamente formal del pensamiento como así se la  define de forma ortodoxa y tradicional), el ser humano va mucho más allá de todo lo meramente biológico, tal y como demuestra el Psicoanálisis, en particular Freud y Lacan, y en la clínica.

 

Freud y Lacan descubrieron que hay un sujeto (persona) particular en cada ser humano, que le constituye (por ejemplo con su inconsciente), y que no es generalizable, y sobre todo en el sentido reduccionista de la Ciencia, sea la genética, sea la biología, sea  la química, sea la física, sea las matemáticas, y más ampliamente aún sea desde el punto de vista de la lógica formal; porque este sistema de pensamiento es por definición cerrado y completo sobre sí mismo, pero como es una aproximación solamente metonímica a lo real, carente de la metáfora del lenguaje y pensamiento humanos, es una aproximación muy pobre al final (a pesar de los frutos tecnológicos que ha obtenido nuestra civilización de ello), y ella nos ha llevado a sus propios límites en el conocimiento de lo real, lo cual es claramente visible en numerosas las paradojas matemáticas (Teoremas de incompletitud de Gödel), informáticas (Máquina de Turing y Problema de la parada –  Turing Machine & Halting Problem), e inclusive físicas (la teoría de la relatividad es  incompatible matemática y físicamente con la teoría de la mecánica cuántica -nuestras dos teorías fundamentales de la Ciencia y la tecnología y más cercanas al mundo real-).

 

 

Porque en toda la historia de la humanidad, tanto las ciencias, las exactas, como la física, química, matemática, como las otras, tales como la biología, la genética, la neurología, la medicina, las neurociencias, etc., y además todas sus aplicaciones en toda la tecnología pasada y presente, están todas ellas basadas en una lógica formal del pensamiento, y precisamente desde Gödel, encontramos numerosos ejemplos de paradojas…Todo lo cual nos muestra que estamos en los límites del conocimiento que nos puede aportar la lógica formal, la cual por definición está limitada solamente al sentido unívoco de la metonimia, y aunque combinada con la transmisión del conocimiento, ha permitido construir la actual civilización tecnológica, sin embargo estamos en un marco lógico limitado y constreñido a los límites de la lógica formal, y que como ya he dicho es la herramienta del pensamiento científico y la tecnología actuales por su propia definición y en toda su evolución histórica desde la época de la civilización griega.

 

Luego si la lógica formal, que es la base de todo pensamiento de toda la ciencia y la tecnología, puede llegar a ser “contradictoria”, y “limitada” o “incompleta” (Gödel), hay que dar un paso más allá y abrir el horizonte usando unas herramientas más completas y menos parciales, que podemos sacarlas de lo que ha descubierto el Psicoanálisis del ser humano y su constitución como sujeto en tres estructuras: una simbólica, otra imaginaria, y la conjunción de ambas con lo real nos permite apreciar “algo” de lo real, pero de una forma parcial y fragmentada, no hay una coherencia y reciprocidad entre lo que nuestra mente es capaz de llegar a captar, entender y/o comprender de lo real, con lo que verdaderamente es lo real.

 

Y es por esta falta de aceptación y de haberse dado cuenta de lo anterior es que el discurso de la ciencia y la tecnología es alienante, y se empiezan a encontrar plagadas de paradojas y contradicciones; y para colmo de males cuanto más se excluye la metáfora, lo singular y/o particular del sujeto, cuando más metonímico y cerrado se vuelve el discurso científico, tanto más se aleja de lo real, y un ejemplo vivido por todos actualmente y de forma muy cercana es la “crisis” económica mundial, en donde el sistema económico se ha devorado a sí mismo, y tampoco nos ha faltado tanto a la humanidad entera con la alienación de la guerra atómica, no hemos estado ni estamos tan lejos de devorarnos a nosotros mismos, por el “progreso” ilimitado de la ciencia y la tecnología; si no somos conscientes de sus límites y no nos hacemos cargo de ellos, lo real siempre está presente para surgir muy a nuestro pesar, y recordárnoslo y no de forma precisamente agradable.  No propongo un retorno a la naturaleza, que es  “mítico”, sino hacernos cargo de nuestra responsabilidad y asumir los límites del pensamiento científico y tecnológico, pero siendo un científico a mi vez de formación y vocación,  intento a su vez ir un paso más allá, y teniendo presentes estos límites, y mi limitación como la de todos para conocer lo real, intento encontrar nuevas formas de pensamiento aplicables a la ciencia, a la tecnología, y la informática en particular.

 

El peor error de la ciencia es creerse la única verdad fundamental y estar por encima de todo, y sin embargo lo real es tan complejo y tan complicado que requiere como mínimo una gran dosis de humildad, y es por ello que la ciencia actual es tan incapaz de ir más allá de su propio discurso y sus propios límites lógicos, y darse cuenta que mente y cerebro no son equivalentes y/o iguales; este es el gran error de la mayoría de los científicos actuales (Cientifismo) adornado y barnizado con la tecnología. Pero si al menos no se quiere aceptar como una verdad cierta y demostrada, siempre queda usarla como axioma, al igual que miles de conocimientos que en todas las áreas de la ciencia no son demostrables y sin embargo se dan por ciertos, y si mi axioma de que mente y cerebro no son lo mismo, funciona correctamente y nos lleva a resultados coherentes con el mundo real, lo daremos entonces por cierto.

 

 

4.- Los mecanismos fundamentales del Lenguaje y del Pensamiento.

 

Además de lo dicho en los párrafos anteriores, el Psicoanálisis también nos enseña que hay dos mecanismos fundamentales en el Lenguaje (Saussure) y el pensamiento humano, cuales son el desplazamiento o metonimia, y la condensación o metáfora (Freud), o lingüísticamente llamados metonimia y metáfora (Lacan).

 

La metonimia es el mecanismo fundamental del pensamiento científico (y matemático), y es lo que refleja la lógica formal y/o simbólica, donde el sentido ambiguo y multívoco del Lenguaje se ha diseccionado en un sentido preciso y unívoco para conseguir rigor, y consistencia por lo tanto, y excluir la contradicción, pero a costa de suprimir el otro mecanismo del pensamiento, cual es la condensación o metáfora, llegando paradójicamente a resultados contradictorios (véase paradojas…) o incompletos. Dentro de todo el sistema lógico formal ha funcionado permitiéndonos inventar y desarrollar nuestra presente civilización tecnológica, pero como ya he dicho, estamos encontrando su límites lógicos.

 

Ahora entonces, podemos dar un paso más adelante y más allá, con la incorporación de la metáfora a nuestro sistema lógico del pensamiento la ciencia y la tecnología, donde  la incorporación de la metáfora,  podría implicar la pérdida del principio de la generalidad, pero inclusive aún llegando a un sistema incompleto, seguramente tendría una representación más cercana y certera de lo real que con el sistema tradicional. Y ello es lo que me propongo hacer e intentar construir a partir de ahora…

 

Y si logro definir una lógica que además de la metonimia tenga incorporada también la metáfora, tendré incorporados entonces los dos mecanismos fundamentales del pensamiento y del lenguaje humano. Aún así siempre será un sistema parcial y limitado del conocimiento, pero tendrá como ya he dicho anteriormente una  mejor percepción de lo real que con la sola metonimia de la lógica simbólica.

 

La metáfora o condensación es lo que nos permite concluir y lo que nos introduce lo real como paso del tiempo,  mientras que en la lógica simbólica o matemática, lo real entra solamente a través de la cardinalidad de los Números.

 

 

5.- Estructuralismo.

 

El marco teórico y experimental en el que me muevo es  por lo tanto el “Estructuralismo”, comenzando desde Saussure con su estudio de la lengua, siguiendo a Jakobson y a Levis Strauss, y terminando en Freud y Lacan con el descubrimiento del inconsciente, el Psicoanálisis, y la constitución del  ser humano como sujeto.

 

No me propongo ni pretendo hacer una demostración puntillosa, perfecta, completa y rigurosa en el sentido clásico y ortodoxo de la ciencia, porque estaría usando la concepción de la lógica formal del pensamiento tradicional y ortodoxo de la ciencia y la tecnología,  aunque ello no significa renunciar a la coherencia o consistencia interna, aunque mi sistema no sea por definición ni completo, ni por lo tanto cerrado, sólo exigiré, si me es posible, la no contradicción, y sí pretendo a partir del marco teórico y experimental que he definido, encontrar, identificar, y/o inventar si es necesario, unas herramientas que me permitan analizar y estudiar los conocimientos no sólo de una forma metonímica de la lógica formal y/o simbólica, como hasta ahora ha sucedido en Informática e Internet, sino y además que pueda “semantizar” la Web, con el añadido de alguna herramienta que represente la metáfora, y el principio de condensación del lenguaje y el pensamiento humano, que es lo que nos acerca a lo real a través del paso del tiempo y la conclusión.

 

Este sistema lógico por lo explicado anteriormente sobre nuestra percepción de lo real, y también por definición, no será completo, e inclusive podría llegar a ser inconsistente, aunque procuraré hacerlo de tal manera que en lo posible lo evite, como lo es a veces lo mismo real, pero será una útil herramienta para manejar el conocimiento en Internet. No pretendo al final que los ordenadores lleguen a hablar, ya que mi teorema “El Límite de la Web Semántica”, dice que ello es imposible, pero todo lo que pueda caminar en dicho sentido será un avance sustancial para el manejo y transmisión del conocimiento a través de Internet.

 

Y este sistema lógico además de no ser completo implica entonces que no es cerrado, o sea que es abierto, y aunque parece imposible así construir algo “científico”, sin embargo toda la ciencia y la tecnología y sus descubrimientos están imbuidos en buena medida del mismo, ya que aunque hemos intentado formalizarlo con la lógica formal, sin embargo la relación de la ciencia y la tecnología con lo real, pasa a través de nuestra mente y sus mecanismos a veces inconsistentes, pero relacionados directamente con lo real, donde nadie es, desde allí es que pretendo buscar y encontrar este nuevo orden del pensamiento, donde todo no es completo y cerrado, pero donde todo si está conectado a lo real a través de la semantización del lenguaje informático e Internet.

 

Este es mi  proyecto, tal vez disparatado y grandioso, cuan imposible, pero como decía Lacan “lo real es lo único imposible” y a por ello voy…

 

 

6.- Conocimiento y Transmisión del Conocimiento.

 

El conocimiento es, por una parte, el estado de quien conoce o sabe algo, y por otro lado, los contenidos sabidos o conocidos que forman parte del patrimonio cultural de la Humanidad. Por extensión, suele llamarse también “conocimiento” a todo lo que un individuo o una sociedad dados consideran sabido o conocido.

 

Sin duda, las ciencias constituyen una de los principales tipos de conocimiento. Las ciencias son el resultado de esfuerzos sistemáticos y metódicos de investigación en busca de respuestas a problemas específicos y cuya elucidación procura ofrecernos una representación adecuada del mundo. Hay también, no obstante, muchos tipos de conocimiento que, sin ser científicos, no dejan de estar perfectamente adaptados a sus propósitos: el «saber hacer» en la artesanía, el saber nadar, etc.; el conocimiento de la lengua, de las tradiciones, leyendas, costumbres o ideas de una cultura particular; el conocimiento que los individuos tienen de su propia historia (saben su propio nombre, conocen a sus padres, su pasado), o aún los conocimientos comunes a una sociedad dada, incluso a la humanidad (saber para qué sirve una martillo, saber que el agua extingue el fuego).

 

Aun cuando en cada momento se genera información, sin embargo, la cantidad de conocimiento humano es necesariamente finita, amén de la dificultad de resolver problemas tales como el origen de la vida y del universo, la muerte, entre muchos otros.

 

Los conocimientos se adquieren mediante una pluralidad de procesos cognitivos: percepción, memoria, experiencia (tentativas seguidas de éxito o fracaso), razonamiento, enseñanza-aprendizaje, testimonio de terceros… Por su parte, la observación controlada, la experimentación, la modelización, la crítica de fuentes (en Historia), las encuestas, y otros procedimientos que son específicamente empleados por las ciencias, pueden considerarse como un refinamiento o una aplicación sistemática de los anteriores. Estos son objeto de estudio de la epistemología.

 

La importancia que atribuye al conocimiento distingue a la humanidad de las otras especies animales. Todas las sociedades humanas adquieren, preservan y transmiten una cantidad sustancial de saberes, notablemente, a través del lenguaje. Con el surgimiento de las civilizaciones, la acumulación y la difusión de conocimientos se multiplican por medio de la escritura. A través de la historia, la humanidad ha desarrollado una variedad de técnicas destinadas a preservar, transmitir y elaborar los conocimientos, tales como la escuela, las enciclopedias, la prensa escrita, las computadoras u ordenadores.

 

Esta importancia va de la mano con una interrogación sobre el valor del conocimiento. Numerosas sociedades y movimientos religiosos, políticos o filosóficos han considerado que el acrecentamiento del saber, o su difusión, no resultaban convenientes y debían limitarse. A la inversa, otros grupos y sociedades han creado instituciones tendentes a asegurar su preservación, su desarrollo y su difusión. Así mismo, se debate cuáles son los valores respectivos de diferentes dominios y clases de conocimientos.

 

En las sociedades contemporáneas, la difusión o al contrario, la retención de los conocimientos, tiene un importante papel político y económico, incluso militar; lo mismo ocurre con la propagación de pseudo-conocimientos (o desinformación). Todo ello contribuye a hacer del conocimiento una fuente de poder. Este papel explica en buena parte la difusión de la propaganda y las pseudociencias, que son tentativas por presentar como conocimientos, cosas que no lo son. Esto le confiere una importancia particular a las fuentes de supuestos conocimientos, como los medios masivos y sus vehículos, tales como Internet.

 

Y así como el invento de la escritura y de la imprenta trajeron aparejada una revolución y explosión en la transmisión del conocimiento, ahora el invento de Internet y el intento de construir una Web Semántica sobre ella, significaría una revolución y explosión exponencial en la transmisión del conocimiento a una escala sin precedente alguno respecto de toda la historia de la civilización, porque ya no sólo todo el conocimiento sería accesible a un coste económico ínfimo como ha dado lugar Internet, sino y además que el coste de tiempo de búsqueda del conocimiento, a través del filtro de la Web Semántica en Internet, se reduciría a casi cero.

 

Para lograr el objetivo de construir la Web Semántica, ya no es suficiente con mecanizar con una máquina la escritura caligráfica y/o “a mano”, que fue lo que hizo “Gutenberg”, ahora necesitamos “enseñarle” el lenguaje a las  computadoras u ordenadores, y para ello es necesario saber:

 

¿Cuál es la naturaleza del conocimiento?

 

¿Cómo representamos al conocimiento?

 

Y estas preguntas y sus respuestas no son fútiles ni de perogrullo, pues tenemos que ser conscientes que este es el paso crucial que representa la Web Semántica: ¡La incorporación del “Lenguaje” en las computadoras u ordenadores! Y aunque mi teorema “The limit of The Semantic Web” dice que ello es un objetivo imposible, sin embargo todo lo que nos acercáramos en dicho sentido nos daría nuevas herramientas de transmisión del conocimiento. Evidentemente si lográramos totalmente dicho objetivo estaríamos muy cerca de que las máquinas tuvieran “pensamiento humano”, que aunque inclusive teniendo dicha habilidad, nunca serían iguales o equivalentes a los seres humanos por su distinta imbricación en lo real.

 

 

7.- Naturaleza y Representación del Conocimiento.

 

La teoría clásica de la transmisión del conocimiento, que es la teoría de la Comunicación nos dice que hay un emisor y un receptor, que es lo que también usa la Psicología como ciencia; pero la novedad del descubrimiento del Psicoanálisis es que además del receptor citado, hay también un segundo receptor que es el mismo emisor también. Y el Psicoanálisis nos descubre al ser humano como un sujeto divido, y por lo tanto nos descubre también la ambivalencia del lenguaje y la inexistencia de un sentido unívoco del mismo, o lo que es lo mismo, del sin sentido del sentido del lenguaje, tal y como Wittgenstein lo indicó.

 

El Psicoanálisis nos explica que en la constitución del sujeto interviene un mundo simbólico, que es el lenguaje, un mundo imaginario, que es la participación que cada uno tiene en el lenguaje, y un mundo real, al que sólo se puede acceder a través precisamente de la representación del mismo que nos da la conjunción de lo simbólico y lo imaginario (lo Real, lo Imaginario y lo Simbólico).

 

Independientemente de todos los complejos detalles al respecto en la teoría Psicoanalítica, léase Freud y Lacan, lo importante es que el ser humano no percibe al mundo o a lo real tal cual es, sino y bajo el prisma de su propia constitución original de sujeto. Por ello la aprensión del conocimiento no es ilimitada, sino y limitada a la propia naturaleza del lenguaje humano ambivalente, lo que establece unos límites del conocimiento de lo real, y un buen ejemplo de ello es el intento del gran matemático Hilbert y otros, de construir un sistema matemático completo axiomáticamente y no contradictorio en sí mismo, pero como Gödel demostró con sus teoremas, si un sistema de conocimiento es completo, entonces es contradictorio, y viceversa, si un sistema es incompleto entonces no es contradictorio; también tenemos otros muchos ejemplos como la máquina de Turing y el Problema de la Parada. Al final lo que nos dice todo esto es que el lenguaje nos arrastra, inclusive a nuestro pesar, a sus propios límites, y si no tenemos esto en cuenta para construir la Web Semántica estamos condenados desde el principio al fracaso.

 

Luego la naturaleza del conocimiento está limitada por el lenguaje como transmisor y por la propia estructura Psicoanalítica de los seres humanos. Y lo que representa el conocimiento entre los seres humanos, no es el pensamiento, sino y su medio transmisor, o sea el lenguaje. Entonces lo importante no es tanto la naturaleza del conocimiento, sino y la naturaleza de su medio transmisor el lenguaje, del que ya he dicho que es ambivalente y no es de sentido unívoco, y esto es lo que tenemos que tener en cuenta para construir la Web Semántica.

 

Un apunte más, los mitos que solemos despreciar por considerarlos anacrónicos, no modernos y anticientíficos, precisamente los mitos son lo que nos indican los límites de nuestra percepción de lo real, los límites de nuestro pensamiento, y todos ellos tienen además en común el uso de la metáfora, la cual nos marca el transcurso de lo real como paso del tiempo en la conclusión, por eso en los seres humanos no existe el problema de la parada como en la Máquina de Turing. Yendo más lejos y abundando más aún, tanto Hegel como Kant consideraron al tiempo no categorizable, o lo que es lo mismo para el Psicoanálisis, el tiempo es una ilusión de nuestra percepción, el tiempo es una forma de representar lo real como una sucesión o transcurso de acontecimientos. Y la Lógica Descriptiva (que son una familia de lenguajes de la Representación del Conocimiento y esta a su vez está basada en la Lógica Formal) que es la base utilizada actualmente para construir la Web Semántica, no puede dar cuenta del lenguaje, pues para empezar le falta la metáfora, ya que es una lógica matemática, la cual es una lógica simbólica consistente, donde por lo tanto se considera que el sistema axiomático es completo, y sólo posee por definición y construcción la metonimia careciendo la metáfora, y por supuesto como muy bien nos demostró ya Gödel, nos lleva finalmente a contradicción, que es lo que hasta ahora pasa con todos los intentos de construir la Web Semántica desde esta base: ¡Han resultado un completo y sonoro fracaso a pesar de la inversión multimillonaria en medios!. Pero sigue faltando lo fundamental, la base adecuada para transmitir el conocimiento, que como he  dicho anteriormente necesita del lenguaje, y el lenguaje tiene dos estructuras fundamentales:

La metonimia y la metáfora. A la metonimia ya la tenemos en el lenguaje matemático, todo en él es un proceso  metonímico, y si en algún momento entra el tiempo es como una ficción, f(t) o función del tiempo, pero no hay un uso de metáfora que es lo que impediría el sin sentido del sólo sentido metonímico, no hay un uso de la metáfora que es lo que introduciría lo real y llevaría a la conclusión solucionando el problema de la parada de la máquina de Turing.

 

Luego lo que tenemos que introducir es la metáfora en los fundamentos de la matemática, la cual nos permitiría construir una lógica inconsistente, pero no por ello contradictoria, similar a la lógica del inconsciente humano como lo entiende el psicoanálisis. Si lográramos tal objetivo, tendríamos las herramientas adecuadas para implementar la Web Semántica en los ordenadores, y funcionaría.

 

Y este es mi gran reto: Inventar una lógica no consistente, que además de la metonimia presente en la lógica matemática consistente, tenga también incorporada la metáfora.

 

 

8.- ¿Porque no intentar enseñar a hablar y/o a pensar a una máquina? Limitaciones y fracasos de la aproximación de la Lógica Descriptiva.

 

Cuando estudiaba ciencias, a lo largo de mi carrera alguno de mis profesores físicos y matemáticos, y con mucha experiencia, me hicieron las dos siguientes observaciones:

 

La primera, que cuando uno se enfrenta a un problema a resolver, el problema no te pregunta cuanto sabes, para así acomodarse a tu conocimiento y poder resolverlo; esto parece una verdad de perogrullo y del más puro sentido común, pero en este caso es más cierto que nunca.

 

La segunda observación, fue que “usualmente” todos los problemas tienen una solución que está “implícita” si la pregunta del problema está bien formulada, o dicho de otra forma si el marco de referencia del problema está bien construido.

 

El recordar y reconsiderar ambas observaciones, me ha hecho cambiar totalmente mi perspectiva inicial para abordar y resolver el problema de construir la “Web Semántica”; y así en lugar de aplicar directamente mis esfuerzos en su resolución, con la profunda y densa formación tanto física como matemática que recibí en mi formación como científico, y que entiendo ha sido la actitud usual de trabajo de todos aquellos que han trabajado hasta ahora en este campo intentando resolver este problema, y hasta ahora con escaso éxito, decía entonces que he preferido alejarme del problema particular y específico, y tomar una visión más general y amplia del mismo (lo que se entiende salir del bosque para poder ver su conjunto y no a un solo árbol), y para ello como decía,  en lugar de intentar directa y rápidamente su solución, estoy dando un largo rodeo, y no absurdo ni carente de sentido de acuerdo a las dos “observaciones” iniciales anteriores, sino y formulando un marco adecuado y lo más completo posible en donde inscribir dicho problema de construir la “Web Semántica”.

 

Para ello empecé estudiando de donde se partía para construir la “Web Semántica” en informática, y se parte actualmente de la Lógica Descriptiva, la cual a su vez toma como base a la Lógica Simbólica o Lógica Matemática .

 

Entonces como sé de las limitaciones de la Lógica Simbólica o formal, reflejada en los teoremas de Gödel y en numerosas paradojas matemáticas y físicas, he ampliado mi campo de conocimiento de las ciencias puras a las Humanidades, y si de lo que se trata entonces es de enseñar a hablar a un ordenador (o lo que es equivalente que un ordenador entienda lo que decimos), estamos preguntando por el lenguaje, y por ello incorporo a la lingüística en el marco de referencia del problema.

 

Podría haber acudido también a la filosofía, pero el problema que encuentro en ella al igual que en las matemáticas puras, es que sólo contempla y usa en sus desarrollos la lógica formal como sistema único de pensamiento, y esta objeción me viene además dada por el Psicoanálisis, el cual demuestra que usando solamente la lógica propia del sujeto o persona es muy fácil engañarse y/o entrar en contradicción, y no quiero autoengañarme en el sentido más literal del término.

 

 

9.- El Pensamiento y el Lenguaje.

 

Pero además la razón de recurrir al Psicoanálisis viene dada también por la necesidad de responder a la pregunta sobré qué es la inteligencia y qué es el pensamiento, necesarios para intentar enseñar de alguna manera a pensar por sí misma a una máquina; y esta respuesta me la puede dar el Psicoanálisis en combinación con la lingüística, no la psicología ni la biología, ni la genética, pues todas ellas al igual que la filosofía sólo usan una aproximación a lo real única y exclusivamente  cuantitativa, estadística, y con una lógica exclusivamente formal, y aunque es el método ortodoxo y propio de la ciencia, la lógica formal tiene graves limitaciones tanto lógicas por una parte, porque si  nuestras hipótesis son completas el sistema entra en contradicción, y si nuestras hipótesis son incompletas entonces el sistema es consistente. Decía que el método ortodoxo de la ciencia tiene graves limitaciones, además de lo anterior, por la exigencia de comprobación experimental, pues no todo lo que existe o es real es verificable experimentalmente, de forma cuantitativa y estadística, y si no se acepta esta limitación de acceso a lo real de forma absoluta, al menos hay que tomarla como hipótesis de trabajo, pues lo que estoy diciendo es que nuestra aproximación ortodoxa del método científico es incompleta y no nos permite resolver el problema del que tratamos. Y más aún, la Mecánica Cuántica de las Ciencias Físicas nos dice que si realizamos cualquier experimento, estaremos a nuestro pesar y aunque así no lo quisiéramos, cambiando las condiciones de aislamiento del experimento en el momento que tomemos de él los resultados, debido a nuestra propia interacción con dicho experimento; por todo ello es una ilusión, fantasía y un gravísimo error, intentar construir un sistema lógico perfecto en ciencia, cuyo único y exclusivo referente y garantía sea la experimentación, y un buen ejemplo de ello es la paradoja del Gato de Schrödinger.

 

 

Según el Psicoanálisis, el ser humano tiene una realidad que va mas allá de lo meramente biológico, por ello el ser humano no sigue exclusivamente y se regula por los instintos como es propio por los animales en el campo de la biología, según el Psicoanálisis el ser humano se regula por su relación con el “Goce” (las Pulsiones o Trieb que no son Instintos) en el sentido técnico de dicho término en Psicoanálisis. La importancia de este término tan “desconocido” para el resto de la ciencia, es que marca precisa y exactamente la diferencia entre los seres humanos y todo el resto de seres  vivos. Y precisamente esta diferencia se refleja y se traduce en que somos seres hablantes, y eso nos ha permitido construir nuestra civilización, cultura y tecnología. Por ello, todo lo lejos que pudiera llegar en hacer pensar o hablar a una máquina, nunca sería equivalente a un ser humano, pues su imbricación en lo real es distinta: el ser humano siente (y piensa) por y con el “goce” y la máquina aunque pudiera pensar o hablar no podría sentir, ya que no tiene ninguna relación con la “falta” y el “goce”. Y el sentido del término sentir, me refiero técnicamente en Psicoanálisis, a la falta de no ser completo, al dolor, que experimenta todo ser humano, de una forma particular para cada sujeto o individuo, y no generalizable en el sentido experimental, estadístico y cuantitativo de la ciencia, pero aún así, que no lo pueda demostrar científicamente no significa ciertamente que no sea real; y este enlace específico y particular del ser humano con la existencia, modifica profundamente su relación con lo real, de tal manera que no es reproducible, no ya experimentalmente fuera de cada sujeto, sino y además que no podemos “crearlo” y/o “reproducirlo” en una máquina; por ello afirmo que aunque lográramos que una máquina hablara, y por extensión tuviera alguna dimensión de nuestro pensamiento, nunca sería completa en el sentido de además experimentar la falta en lo real que experimenta todo ser humano. Las únicas pruebas fehacientes en tal sentido se pueden extraer de la clínica y/o psicopatología del Psicoanálisis, y como para llegar a intentar entender algo de ello es necesario ser un erudito psicoanalítico además de haberse psicoanalizado, lo podemos tomar al menos como una hipótesis y/o premisa cierta de trabajo: Si todas las premisas y/o hipótesis que establezco son correctas, debería de poder encontrar la solución a nuestro problema, y por lo tanto son mis resultados concretos en solucionar dicho problema lo que dará efectividad a la existencia de mis hipótesis de trabajo.

 

 

10.- El Pensamiento no es lo mismo que el Lenguaje, y el Cerebro no es lo mismo que la Mente. ¿Qué es la Inteligencia?.¿Qué es el Pensamiento?.

 

Ahora y a continuación estoy intentando definir que es el pensamiento, y según el Psicoanálisis, y tal como lo entiendo y lo traduzco yo mismo, el pensamiento es la conjunción de lo “simbólico” (el lenguaje), lo “imaginario” (el acceso particular de cada sujeto al lenguaje) y lo real del sujeto mismo, todos los términos formulados en el sentido técnico estricto del Psicoanálisis (lo Real, lo Imaginario y lo Simbólico); y de esta conjunción surge el sujeto o ser humano, por ello entiendo que el lenguaje es el medio del pensamiento mismo, aunque no es el pensamiento. Y el pensamiento es lo mismo que la Inteligencia, por lo que defino también la Inteligencia como  la conjunción de lo “simbólico” (el lenguaje), lo “imaginario” (el acceso particular de cada sujeto al lenguaje) y lo real del sujeto mismo.

 

Luego no necesito llegar a profundizar más en el pensamiento y la inteligencia, ya que no puedo dar un acceso a lo real  a una máquina a través de la “falta” y/o dolor de la existencia propia de los seres humanos (que es lo que da lugar a la condensación y crea las metáforas), por lo que me quedo para los fines que perseguimos solamente con el lenguaje, que me aproximarán a alguna dimensión del pensamiento, no exactamente igual que la de los seres humanos, pero al menos más potente que la mera lógica formal, y de allí saco dos mecanismos del mismo que son los que tenemos que trasladar a nuestra máquina de alguna manera: La metonimia y la metáfora; entiendo que estos son los dos mecanismos fundamentales del lenguaje humano (y del pensamiento), y son los que tendríamos que intentar trasladar a nuestra máquina.

 

 

11.- Diferencia entre los animales y los seres humanos

 

Un comentario más acerca de la naturaleza del pensamiento y el resto de seres vivientes, o sea los animales: los animales sólo tienen acceso a lo imaginario (Estadio del Espejo), que no es el lenguaje (lo simbólico) en sí, y no acceden al lenguaje, porque, entiéndase, que el lenguaje no sólo es la capacidad de hablar y/o transmitir conocimientos, el lenguaje es la capacidad simbólica de aprehender lo real (el mundo), y ello hace que no tengan relación directa con el “Goce” y/o la “falta”, por lo que en gran y/o total medida sus comportamientos están regulados por los “Instintos”, y son factibles de experimentación, y medidas cuantitativas y estadísticas, ya que son mecanismos biológicos y genéticos, y heredados del comportamiento para la supervivencia; mientras que el acceso al lenguaje (lo simbólico) del ser humano, provoca una transformación de la mera naturaleza biológica del cerebro, haciendo surgir la “mente”, la cual está relacionada con el “goce” y la falta. Me reitero expresamente para que se entienda bien: si no hay acceso al lenguaje tampoco hay acceso al “goce” y la “falta”, pero me pregunto: ¿puede haber algún tipo de acceso al lenguaje sin acceso al “goce” y o la “falta”?, y la respuesta la tenemos en los mismos ordenadores, ya que tienen acceso parcialmente al lenguaje, a través de la lógica simbólica, pero no tienen acceso al dolor ni al goce. Por todo ello incorporar el otro mecanismo del pensamiento y/o el lenguaje, la metáfora, a una máquina es muy complicado, porque no sólo tendríamos que construir una estructura lógica que además de la metonimia propia de la lógica simbólica, incorporase además un mecanismo metafórico en la lógica formal, pero eso surge en el ser humano de su relación con la falta y el goce, luego si no puedo incorporar el goce y la falta en una máquina, tampoco puedo incorporar la metáfora, y por lo tanto no podría enseñarle a hablar ni tampoco a pensar.

 

 

12.- Conclusión: Imposibilidad del Lenguaje y Pensamiento humano en las Máquinas, y el fracaso de la Inteligencia Artificial.

 

Luego por todo lo anterior, mi programa es fallido y no es posible enseñar el lenguaje y/o el pensamiento humanos a una máquina, ya que al carecer de relación alguna con el “goce”, no es posible introducir además de la metonimia, el otro mecanismo del lenguaje y del pensamiento, cual es la metáfora. Esta última surge de los procesos de elaboración del inconsciente y es la conclusión de ellos, luego el acceso a lo real como paso del tiempo está dado por la conclusión que nos permite construir la metáfora, y como ya he dicho anteriormente, podemos construir máquinas, pero no podemos construirlas con acceso al “goce”, por lo que es imposible lograr que hablen y/o puedan pensar tal y como lo hacen los seres humanos. Y respecto de los animales, sin embargo tendría que decir, que todos los animales tienen acceso a la “falta” de la existencia, pero al no poder simbolizar, carecen de los mecanismos del pensamiento humano, cuales son la metáfora y la metonimia, y por ello no pueden construir un lenguaje, lo que a su vez les permitiría construir un sistema simbólico que pudiera crear cultura, civilización y tecnología, cual es el caso de los seres humanos. Los animales tienen solamente una estructura imaginaria (estadio del espejo), y sólo son un cuerpo biológico, pues no hay separación del mismo como hacen los seres humanos por su estructura simbólica además de la imaginaria; luego los animales sí tienen “cerebro” pero no tienen “mente”.

Inteligencia es la capacidad de entender, asimilar, elaborar información y utilizarla adecuadamente, y la inteligencia es una facultad de la mente pero no del cerebro, pero para ello es necesario tener acceso al lenguaje, pues el medio de la inteligencia es el sistema simbólico (Lacan), luego si no podemos dar acceso al lenguaje a las máquinas, ¡todo el proyecto de la Inteligencia Artificial es un proyecto fallido!.  ¡No es posible hacer hablar (y por extensión pensar) a los ordenadores construyendo una Web Semántica!

La pregunta final que me surge de toda esta elaboración es entonces: ¿Por qué los seres humanos (que somos animales también) hemos podido hablar construyendo un mundo simbólico que aprehende lo real en un orden simbólico y sin embargo el resto de los seres vivos (los animales) no han podido hacerlo?, o de otra manera: ¿Por qué si tanto los animales como los seres humanos estamos relacionados con lo real de una forma biológica similar (aunque con muy pequeñas diferencias genéticas propias de las diferencias entre todas las especies vivientes) sin embargo el hombre ha accedido a la relación con el “goce” (que le ha permitido hablar) mientras que los animales sólo se han quedado en el estadio imaginario o del espejo y no tienen relación con el “goce”? Y estoy casi absolutamente seguro que las respuestas a ellas no provienen de la biología, la genética, ni de ninguna de las neurociencias…

 

 

13.- Teorema:  “El Límite de la Inteligencia Artificial”.

 

 

Probaré que no existe en absoluto la construcción de la Inteligencia Artificial, que no se puede hacer desde las máquinas, y que no depende ni del hardware ni del software utilizado.

   

Matizando la cuestión, el límite de la Inteligencia Artificial está dado no por las máquinas y/o sistemas biológicos que se pudieran usar, sino porque la Lógica con que se intenta construir carece del uso del tiempo, ya que la lógica formal es puramente metonímica y carece de la metáfora, y eso es lo que marcan los teoremas de Gödel, la tautología final de toda construcción y /o lenguaje metonímico (matemático), que lleva a contradicciones.

  

Esta lógica consistente es opuesta a la lógica inconsistente que hace uso del tiempo, propia del insconciente humano, pero el uso del tiempo está construido en base a la falta, no en torno a lo positivo sino en base a negaciones y ausencias, y eso es imposible de reflejar en una máquina porque la percepción de la falta necesita de la conciencia de sí mismo que se adquiere con la ausencia.

   

El problema está en que pretendemos construir un sistema inteligente que sustituya nuestro pensamiento, al menos en las búsquedas de información, pero la particularidad de nuestro pensamiento humano es el uso del tiempo el que permite concluir, por eso no existe en la mente humana el problema de la parada o detención del cálculo, o lo que es lo mismo ausencia del momento de concluir. 

 

Así que todos los esfuerzos encaminados a la Inteligencia Artificial están destinados al fracaso a priori si lo que se pretende es prolongar nuestro pensamiento humano en las máquinas, ellas carecen de discurso metafórico, pues sólo son una construcción Matemática, que siempre será tautológica y metonímica, ya que además carece del uso del tiempo que es lo que lleva al corte, la conclusión o la “Parada”. 

 

Como demostración vale la del contraejemplo, o sea que si suponemos, que es posible construir la Inteligencia Artificial, como una inteligencia con capacidades similares a la inteligencia humana, que tiene el uso del tiempo, entonces si ese es un teorema general, con un solo Contraejemplo se viene abajo, y el contraejemplo está dado en el caso particular de la Máquina de Turing y el “Problema de la Parada”. 

 

Luego no se cumple la condición necesaria y suficiente del teorema, nos queda la condición necesaria que es que si un lenguaje tiene el uso del tiempo, carece de lógica formal, usa la lógica inconsistente y por lo tanto no tiene el “Problema de la Parada”, esa es condición necesaria para la Inteligencia Artificial, pero no suficiente y por ello ninguna máquina, sea de Turing, computador o dispositivo aleatorio como un cuerpo negro en física, puede alcanzar el uso de un lenguaje que no sea el matemático con la Paradoja de la Parada, consecuencia de los teoremas de Gödel. La construcción de la Inteligencia Artificial es un problema Indecidible. 

 

 

 

14.- Teorema:  De la lógica a la ontología: “El Límite de la Web Semántica”.

 

 

Probaré que no existe en absoluto la construcción de la Web Semántica, que no se puede hacer desde las máquinas, y que no depende ni del hardware ni del software utilizado.

   

Matizando la cuestión, el límite de la Web Semántica está dado no por las máquinas y/o sistemas biológicos que se pudieran usar, sino porque la Lógica con que se intenta construir carece del uso del tiempo, ya que la lógica formal es puramente metonímica y carece de la metáfora, y eso es lo que marcan los teoremas de Gödel, la tautología final de toda construcción y /o lenguaje metonímico (matemático), que lleva a contradicciones.

  

Esta lógica consistente es opuesta a la lógica inconsistente que hace uso del tiempo, propia del insconciente humano, pero el uso del tiempo está construido en base a la falta, no en torno a lo positivo sino en base a negaciones y ausencias, y eso es imposible de reflejar en una máquina porque la percepción de la falta necesita de la conciencia de sí mismo que se adquiere con la ausencia.

   

El problema está en que pretendemos construir un sistema inteligente que sustituya nuestro pensamiento, al menos en las búsquedas de información, pero la particularidad de nuestro pensamiento humano es el uso del tiempo el que permite concluir, por eso no existe en la mente humana el problema de la parada o detención del cálculo, o lo que es lo mismo ausencia del momento de concluir. 

 

Así que todos los esfuerzos encaminados a la Web Semántica están destinados al fracaso a priori si lo que se pretende es prolongar nuestro pensamiento humano en las máquinas, ellas carecen de discurso metafórico, pues sólo son una construcción Matemática, que siempre será tautológica y metonímica, ya que además carece del uso del tiempo que es lo que lleva al corte, la conclusión o la “Parada”. 

 

Como demostración vale la del contraejemplo, o sea que si suponemos, que es posible construir la Web Semántica, como un lenguaje con capacidades similares al lenguaje humano, que tiene el uso del tiempo, entonces si ese es un teorema general, con un solo Contraejemplo se viene abajo, y el contraejemplo está dado en el caso particular de la Máquina de Turing y el “Problema de la Parada”. 

 

Luego no se cumple la condición necesaria y suficiente del teorema, nos queda la condición necesaria que es que si un lenguaje tiene el uso del tiempo, carece de lógica formal, usa la lógica inconsistente y por lo tanto no tiene el “Problema de la Parada”, esa es condición necesaria para la Web Semántica, pero no suficiente y por ello ninguna máquina, sea de Turing, computador o dispositivo aleatorio como un cuerpo negro en física, puede alcanzar el uso de un lenguaje que no sea el matemático con la Paradoja de la Parada, consecuencia de los teoremas de Gödel. La construcción de la Web Semántica es un problema Indecidible. 

 

 

 

 

15.- Bibliografía y conceptos útiles.

 

 

Si usted lee los noventa y dos primeros post (a continuación más abajo) de Last Post Index & View del Blog Meta Internet, entonces puede estar seguro que entiende y conoce todos los conceptos necesarios para comprender este trabajo. 

También puede usar la búsqueda del mismo blog o buscarlos en Wikipedia en lengua inglesa y luego pinchar en idioma Español:

¡Siento las molestias pero WordPress no me ha permitido publicar los noventa y dos conceptos en Español!, ya que cuando lo hice en Inglés: 

¡Me amenazaron desde WordPress con cerrarme y clausurarme el blog con la excusa de que no había ningún trabajo original y tampoco he podido publicar en ninguna revista científica porque me dicen que no lleva matemáticas!, ¿y los teoremas por reducción al absurdo qué son entonces?

¡Y me tienen bloqueados todos los tags porque me dicen que tengo demasiados! Es cierto que tengo más de 50.000 links de enlaces pero no hay nada en su contrato de servicio que lo prohíba expresamente…

 

Computability theory (computer science) 
Computer science 
Computational complexity theory 
Semantic Web’s Terms & Companies & People & Organizations 
Information 
From Logic to Ontology: The limit of “The Semantic Web”  
Computation 
Computational problem 
Computer 
Mathematical object 
Algorithm 
Computer programming 
Programming language 
Mathematical proof 
Mathematical logic 
Syntax 
Operator Grammar 
Recursive categorical syntax 
Semantics 
Grammar 
In theoretical computer science, a formal grammar (sometimes simply called a grammar) is 
Ferdinand de Saussure 
Metaphor 
Language of thought 
Intuitionistic logic 
Propositional calculus 
First-order logic 
Second-order logic 
Infinitary logic 
Interface metaphor 
Metonymy 
Morphology (linguistics) 
Ferdinand de Saussure 
Phonology 
Language 
Natural language 
Formal language 
Theory of computation 
Formal semantics 
Specification language 
Pragmatics 
Meaning (linguistics) 
Polysemy 
Synchronic analysis 
Historical linguistics (also called diachronic linguistics) is the study of language change. 
Roman Jakobson 
Computational linguistics 
Discourse analysis 
Phonetics 
Sentence (mathematical logic) 
In theoretical computer science, a formal grammar (sometimes simply called a grammar) is a set of formation rules that describe which strings formed from the alphabet of a formal language are syntactically valid within the language. 
Chomsky hierarchy 
First-order logic is a formal logic used in mathematics, philosophy, linguistics, and computer science. 
Second-order logic 
Structuralism 
Ludwig Wittgenstein 
Claude Lévi-Strauss 
Jacques Derrida 
Jacques Lacan 
Metonymy 
Literal 
Literal and figurative language 
Trope (linguistics) 
Emphasis 
Hyperbole 
Parable 
Allegory 
Simile 
Synecdoche 
Irony 
Antanaclasis 
Rhetoric 
Semiotics 
Figure of speech 
Philosophy of language 
Sense and reference 
Connotation 
Denotation 
Reference 
Extension (semantics) 
Intension 
Intensional logic 
Web Ontology Language 
Ontology (the term in philosophy) 
Ontology (information science) 
Semantic Web 
Description logic 
Knowledge representation 
“Minds, Machines and Gödel: A Retrospect” 
Minds, Machines and Gödel — the original paper 

Read Full Post »

Teorema:  “El Límite de la Inteligencia Artificial”.

 

 

Probaré que no existe en absoluto la construcción de la Inteligencia Artificial, que no se puede hacer desde las máquinas, y que no depende ni del hardware ni del software utilizado.

   

Matizando la cuestión, el límite de la Inteligencia Artificial está dado no por las máquinas y/o sistemas biológicos que se pudieran usar, sino porque la Lógica con que se intenta construir carece del uso del tiempo, ya que la lógica formal es puramente metonímica y carece de la metáfora, y eso es lo que marcan los teoremas de Gödel, la tautología final de toda construcción y /o lenguaje metonímico (matemático), que lleva a contradicciones.

  

Esta lógica consistente es opuesta a la lógica inconsistente que hace uso del tiempo, propia del insconciente humano, pero el uso del tiempo está construido en base a la falta, no en torno a lo positivo sino en base a negaciones y ausencias, y eso es imposible de reflejar en una máquina porque la percepción de la falta necesita de la conciencia de sí mismo que se adquiere con la ausencia.

   

El problema está en que pretendemos construir un sistema inteligente que sustituya nuestro pensamiento, al menos en las búsquedas de información, pero la particularidad de nuestro pensamiento humano es el uso del tiempo el que permite concluir, por eso no existe en la mente humana el problema de la parada o detención del cálculo, o lo que es lo mismo ausencia del momento de concluir. 

 

Así que todos los esfuerzos encaminados a la Inteligencia Artificial están destinados al fracaso a priori si lo que se pretende es prolongar nuestro pensamiento humano en las máquinas, ellas carecen de discurso metafórico, pues sólo son una construcción Matemática, que siempre será tautológica y metonímica, ya que además carece del uso del tiempo que es lo que lleva al corte, la conclusión o la “Parada”. 

 

Como demostración vale la del contraejemplo, o sea que si suponemos, que es posible construir la Inteligencia Artificial, como una inteligencia con capacidades similares a la inteligencia humana, que tiene el uso del tiempo, entonces si ese es un teorema general, con un solo Contraejemplo se viene abajo, y el contraejemplo está dado en el caso particular de la Máquina de Turing y el “Problema de la Parada”. 

 

Luego no se cumple la condición necesaria y suficiente del teorema, nos queda la condición necesaria que es que si un lenguaje tiene el uso del tiempo, carece de lógica formal, usa la lógica inconsistente y por lo tanto no tiene el “Problema de la Parada”, esa es condición necesaria para la Inteligencia Artificial, pero no suficiente y por ello ninguna máquina, sea de Turing, computador o dispositivo aleatorio como un cuerpo negro en física, puede alcanzar el uso de un lenguaje que no sea el matemático con la Paradoja de la Parada, consecuencia de los teoremas de Gödel. La construcción de la Inteligencia Artificial es un problema Indecidible.

Read Full Post »

Teorema:  De la lógica a la ontología: “El Límite de la Web Semántica”.

 

 

Probaré que no existe en absoluto la construcción de la Web Semántica, que no se puede hacer desde las máquinas, y que no depende ni del hardware ni del software utilizado.

   

Matizando la cuestión, el límite de la Web Semántica está dado no por las máquinas y/o sistemas biológicos que se pudieran usar, sino porque la Lógica con que se intenta construir carece del uso del tiempo, ya que la lógica formal es puramente metonímica y carece de la metáfora, y eso es lo que marcan los teoremas de Gödel, la tautología final de toda construcción y /o lenguaje metonímico (matemático), que lleva a contradicciones.

  

Esta lógica consistente es opuesta a la lógica inconsistente que hace uso del tiempo, propia del insconciente humano, pero el uso del tiempo está construido en base a la falta, no en torno a lo positivo sino en base a negaciones y ausencias, y eso es imposible de reflejar en una máquina porque la percepción de la falta necesita de la conciencia de sí mismo que se adquiere con la ausencia.

   

El problema está en que pretendemos construir un sistema inteligente que sustituya nuestro pensamiento, al menos en las búsquedas de información, pero la particularidad de nuestro pensamiento humano es el uso del tiempo el que permite concluir, por eso no existe en la mente humana el problema de la parada o detención del cálculo, o lo que es lo mismo ausencia del momento de concluir. 

 

Así que todos los esfuerzos encaminados a la Web Semántica están destinados al fracaso a priori si lo que se pretende es prolongar nuestro pensamiento humano en las máquinas, ellas carecen de discurso metafórico, pues sólo son una construcción Matemática, que siempre será tautológica y metonímica, ya que además carece del uso del tiempo que es lo que lleva al corte, la conclusión o la “Parada”. 

 

Como demostración vale la del contraejemplo, o sea que si suponemos, que es posible construir la Web Semántica, como un lenguaje con capacidades similares al lenguaje humano, que tiene el uso del tiempo, entonces si ese es un teorema general, con un solo Contraejemplo se viene abajo, y el contraejemplo está dado en el caso particular de la Máquina de Turing y el “Problema de la Parada”. 

 

Luego no se cumple la condición necesaria y suficiente del teorema, nos queda la condición necesaria que es que si un lenguaje tiene el uso del tiempo, carece de lógica formal, usa la lógica inconsistente y por lo tanto no tiene el “Problema de la Parada”, esa es condición necesaria para la Web Semántica, pero no suficiente y por ello ninguna máquina, sea de Turing, computador o dispositivo aleatorio como un cuerpo negro en física, puede alcanzar el uso de un lenguaje que no sea el matemático con la Paradoja de la Parada, consecuencia de los teoremas de Gödel. La construcción de la Web Semántica es un problema Indecidible.

Read Full Post »

Pursuing the Next Level of Artificial Intelligence

Jim Wilson/The New York Times

Daphne Koller’s award-winning work in artificial intelligence has had commercial impact.

 

Published: May 3, 2008

PALO ALTO, Calif. — Like a good gambler, Daphne Koller, a researcher at Stanford whose work has led to advances in artificial intelligence, sees the world as a web of probabilities.

There is, however, nothing uncertain about her impact.

A mathematical theoretician, she has made contributions in areas like robotics and biology. Her biggest accomplishment — and at age 39, she is expected to make more — is creating a set of computational tools for artificial intelligence that can be used by scientists and engineers to do things like predict traffic jams, improve machine vision and understand the way cancer spreads.

Ms. Koller’s work, building on an 18th-century theorem about probability, has already had an important commercial impact, and her colleagues say that will grow in the coming decade. Her techniques have been used to improve computer vision systems and in understanding natural language, and in the future they are expected to lead to an improved generation of Web search.

“She’s on the bleeding edge of the leading edge,” said Gary Bradski, a machine vision researcher at Willow Garage, a robotics start-up firm in Menlo Park, Calif.

Ms. Koller was honored last week with a new computer sciences award sponsored by the Association for Computing Machinery and the Infosys Foundation, the philanthropic arm of the Indian computer services firm Infosys.

The award to Ms. Koller, with a prize of $150,000, is viewed by scientists and industry executives as validating her research, which has helped transform artificial intelligence from science fiction and speculation into an engineering discipline that is creating an array of intelligent machines and systems. It is not the first such recognition; in 2004, Ms. Koller received a $500,000 MacArthur Fellowship.

Ms. Koller is part of a revival of interest in artificial intelligence. After three decades of disappointments, artificial intelligence researchers are making progress. Recent developments made possible spam filters, Microsoft’s new ClearFlow traffic maps and the driverless robotic cars that Stanford teams have built for competitions sponsored by the Defense Advanced Research Projects Agency.

Since arriving at Stanford as a professor in 1995, Ms. Koller has led a group of researchers who have reinvented the discipline of artificial intelligence. Pioneered during the 1960s, the field was originally dominated by efforts to build reasoning systems from logic and rules. Judea Pearl, a computer scientist at the University of California, Los Angeles, had a decade earlier advanced statistical techniques that relied on repeated measurements of real-world phenomena.

Called the Bayesian approach, it centers on a formula for updating the probabilities of events based on repeated observations. The Bayes rule, named for the 18th-century mathematician Thomas Bayes, describes how to transform a current assumption about an event into a revised, more accurate assumption after observing further evidence.

Ms. Koller has led research that has greatly increased the scope of existing Bayesian-related software. “When I started in the mid- to late 1980s, there was a sense that numbers didn’t belong in A.I.,” she said in a recent interview. “People didn’t think in numbers, so why should computers use numbers?”

Ms. Koller is beginning to apply her algorithms more generally to help scientists discern patterns in vast collections of data.

“The world is noisy and messy,” Ms. Koller said. “You need to deal with the noise and uncertainty.”

That philosophy has led her to do research in game theory and artificial intelligence, and more recently in molecular biology.

Her tools led to a new type of cancer gene map based on examining the behavior of a large number of genes that are active in a variety of tumors. From the research, scientists were able to develop a new explanation of how breast tumors spread into bone.

One potentially promising area to apply Ms. Koller’s theoretical work will be the emerging field of information extraction, which could be applied to Web searches. Web pages would be read by software systems that could organize the information and effectively understand unstructured text.

“Daphne is one of the most passionate researchers in the A.I. community,” said Eric Horvitz, a Microsoft researcher and president of the Association for the Advancement of Artificial Intelligence. “After being immersed for a few years with the computational challenges of decoding regulatory genomics, she confided her excitement to me, saying something like, ‘I think I’ve become a biologist — I mean a real biologist — and it’s fabulous.’ ”

To that end, Ms. Koller is spending a sabbatical doing research with biologists at the University of California, San Francisco. Because biology is increasingly computational, her expertise is vital in gaining deeper understanding of cellular processes.

Ms. Koller grew up in an academic family in Israel, the daughter of a botanist and an English professor. While her father spent a year at Stanford in 1981 when she was 12, she began programming on a Radio Shack PC that she shared with another student.

When her family returned to Israel the next year, she told her father, the botanist, that she was bored with high school and wanted to pursue something more stimulating in college. After half a year, she persuaded him to let her enter Hebrew University, where she studied computer science and mathematics.

By 17, she was teaching a database course at the university. The next year she received her master’s degree and then joined the Israeli Army before coming to the United States to study for a Ph.D. at Stanford.

She didn’t spend her time looking at a computer monitor. “I find it distressing that the view of the field is that you sit in your office by yourself surrounded by old pizza boxes and cans of Coke, hacking away at the bowels of the Windows operating system,” she said. “I spend most of my time thinking about things like how does a cell work or how do we understand images in the world around us?”

In recent years, many of her graduate students have gone to work at Google. However she tries to persuade undergraduates to stay in academia and not rush off to become software engineers at start-up companies.

She acknowledges that the allure of Silicon Valley riches can be seductive. “My husband still berates me for not having jumped on the Google bandwagon at the beginning,” she said. Still, she insists she does not regret her decision to stay in academia. “I like the freedom to explore the things I care about,” she said.

Read Full Post »

February 05, 2008

A Universal Classification of Intelligence

I’ve been thinking lately about whether or not it is possible to formulate a scale of universal cognitive capabilities, such that any intelligent system — whether naturally occurring or synthetic — can be classified according to its cognitive capacity. Such a system would provide us with a normalized scientific basis by which to quantify and compare the relative cognitive capabilities of artificially intelligent systems, various species of intelligent life on Earth, and perhaps even intelligent lifeforms encountered on other planets.One approach to such evaluation is to use a standardized test, such as an IQ test. However, this test is far too primitive and biased towards human intelligence. A dolphin would do poorly on our standardized IQ test, but that doesn’t mean much, because the test itself is geared towards humans. What is needed is a way to evaluate and compare intelligence across different species — one that is much more granular and basic.

What we need is a system that focuses on basic building blocks of intelligence, starting by measuring the presence or ability to work with fundamental cognitive constructs (such as the notion of object constancy, quantities, basic arithmetic constructs, self-constructs, etc.) and moving up towards higher-level abstractions and procedural capabilities (self-awareness, time, space, spatial and temporal reasoning, metaphors, sets, language, induction, logical reasoning, etc.).

What I am asking is whether we can develop a more “universal” way to rate and compare intelligences? Such a system would provide a way to formally evaluate and rate any kind of intelligent system — whether insect, animal, human, software, or alien — in a normalized manner.

Beyond the inherent utility of having such a rating scale, there is an additional benefit to trying to formulate this system: It will lead us to really question and explore the nature of cognition itself. I believe we are moving into an age of intelligence — an age where humanity will explore the brain and the mind (the true “final frontier”). In order to explore this frontier, we need a map — and the rating scale I am calling for would provide us with one, for it maps the range of possible capabilities that intelligent systems are capable of.

I’m not as concerned with measuring the degree to which any system is more or less capable of some particular cognitive capability within the space of possible capabilities we map (such as how fast it can do algebra for example, or how well it can recall memories, etc.) — but that is a useful second step. The first step, however, is to simply provide a comprehensive map of all the possible fundamental cognitive behaviors there are — and to make this map as minimal and elegant as we can. Ideally we should be seeking the simplest set of cognitive building blocks from which all cognitive behavior, and therefore all minds, are comprised.

So the question is: Are there in fact “cognitive universals” or universal cognitive capabilities that we can generalize across all possible intelligent systems? This is a fascinating question — although we are human, can we not only imagine, but even prove, that there is a set of basic universal cognitive capabilities that applies everywhere in the universe, or even in other possible universes? This is an exploration that leads into the region where science, pure math, philosophy, and perhaps even spirituality all converge. Ultimately, this map must cover the full range of cognitive capabilities from the most mundane, to what might be (from our perspective) paranormal, or even in the realm of science fiction. Ordinary cognition as well as forms of altered or unhealthy cognition, as well as highly advanced or even what might be said to be enlightened cognition, all have to fit into this model.

Can we develop a system that would apply not just to any form of intelligence on Earth, but even to far-flung intelligent organisms that might exist on other worlds, and that perhaps might exist in dramatically different environments than humans? And how might we develop and test this model?

I would propose that such a system could be developed and tuned by testing it across the range of forms of intelligent life we find on Earth — including social insects (termite colonies, bee hives, etc.), a wide range of other animal species (dogs, birds, chimpanzees, dolphins, whales, etc.), human individuals, and human social organizations (teams, communities, enterprises). Since there are very few examples of artificial intelligence today it would be hard to find suitable systems to test it on, but perhaps there may be a few candidates in the next decade. We should also attempt to imagine forms of intelligence on other planets that might have extremely different sensory capabilities, totally different bodies, and perhaps that exist on very different timescales or spatial scales as well — what would such exotic, alien intelligences be like, and can our model encompass the basic building blocks of their cognition as well?

It will take decades to develop and tune a system such as this, and as we learn more about the brain and the mind, we will continue to add subtlety to the model. But when humanity finally establishes open dialog with an extraterrestrial civilization, perhaps via SETI or some other means of more direct contact, we will reap important rewards. A system such as what I am proposing will provide us with a valuable map for understanding alien cognition, and that may prove to be the key to enabling humanity to engage in successful interactions and relations with alien civilizations as we may inevitably encounter as humanity spreads throughout the galaxy. While some skeptics may claim that we will never encounter intelligent life on other planets, the odds would indicate otherwise. It may take a long time, but eventually it is inevitable that we will cross paths — if they exist at all. Not to be prepared would be irresponsible.

Read Full Post »

Evolving Trends

July 2, 2006

Digg This! 55,500 hits in ~4 Days

/* (this post was last updated at 10:30am EST, July 3, ‘06, GMT +5)

This post is a follow up to the previous post For Great Justice, Take Off Every Digg

According to Alexa.com, the total penetration of the Wikipedia 3.0 article was ~2 million readers (who must have read it on other websites that copied the article)

*/

EDIT: I looked at the graph and did the math again, and as far as I can tell it’s “55,500 in ~4 days” not “55,000 in 5 days.” So that’s 13,875 page views per each day.

Stats (approx.) for the “Wikipedia 3.0: The End of Google?” and “For Great Justice, Take Off Every Digg articles:

These are to the best of my memory from each of the first ~4 days as verified by the graph.

33,000 page views in day 1 (the first wave)

* day 1 is almost one and a half columns on the graph not one because I posted it at ~5:00am and the day (in WordPress time zone) ends at 8pm, so the first column is only ~ 15 hours.

9,500 page views in day 2

5,000 page views in day 3

8,000 page views in day 4 (the second wave)

Total: 55,500 in ~4 days which is 13,875 page views per day (not server hits) for ~4 days. Now on the 7th day the traffic is expected to be ~1000 page views, unless I get another small spike. That’s a pretty good double-dipping long tail. If you’ve done better with digg let me know how you did it! 🙂

Experiment

This post is a follow-up to my previous article on digg, where I explained how I had experimented and succeeded in generating 45,000 visits to an article I wrote in the first 3 days of its release (40,000 of which came directly from digg.)

I had posted an article on digg about a bold but well-thought out vision of the future, involving Google and Wikipedia, with the sensational title of “Wikipedia 3.0: The End of Google?” (which may turn out after all to be a realistic proposition.)

Since my previous article on digg I’ve found out that digg did not ban my IP address. They had deleted my account due to multiple submissions. So I was able to get back with a new user account and try another the experiment: I submitted “AI Matrix vs Google” and “Web 3.0 vs Google” as two separate links for one article (which has since been given the final title of “Web 3.0.” [July 12, ‘06, update: see P2P 3.0: The People’s Google)

Results

Neither ’sensational’ title worked.

Analysis

I tried to rationalize what happened …

I figured that the crowd wanted a showdown between two major cults (e.g the Google fans and the Wikipedia fans) and not between Google and some hypothetical entity (e.g. AI Matrix or Web 3.0).

But then I thought about how Valleywag was able to cleverly piggyback on my “Wikipedia 3.0: The End of Google?” article (which had generated all the hype) with an article having the dual title of “Five Reasons Google Will Invent Real AI” on digg and “Five Reasons No One Will Replace Google” on Valleywag.

They used AI in the title and I did the same in the new experiment, so we should both get lots of diggs. They got about 1300 diggs. I got about 3. Why didn’t it work in my case?

The answer is that the crowd is not a logical animal. It’s a psychological animal. It does not make mental connections as we do as individuals (because a crowd is a randomized population that is made up of different people at different times) so it can’t react logically.

Analyzing it from the psychological frame, I concluded that it must have been the Wikipedia fans who “dugg” my original article. The Google fans did “digg” it but not in the same large percentage as the Wikipedia fans.

Valleywag gave the Google fans the relief they needed after my article with its own article in defense of Google. However, when I went at it again with “Matrix AI vs Google” and “Web 3.0 vs Google” the error I made was in not knowing that the part of the crowd that “dugg” my original article were the Wikipedia fans not the Goolge haters. In fact, Google haters are not very well represented on digg. In other words, I found out that “XYZ vs Google” will not work on digg unless XYZ has a large base of fans on digg.

Escape Velocity

The critical threshold in the digg traffic generation process is to get enough diggs quickly enough, after submitting the post, to get the post on digg’s popular page. Once the post is on digg’s popular page both sides (those who like what your post is about and those who will hate you and want to kill you for writing it) will affected by the psychlogical manipulation you design (aka the ‘wave.’) However, the majority of those who will “digg” it will be from the group that likes it. A lesser number of people will “digg” it from the group that hates it.

Double Dipping

I did have a strong second wave when I went out and explained how ridiculous the whole digg process is.

This is how the second wave was created:

I got lots of “diggs” from Wikipedia fans and traffic from both Google and Wikipedia fans for the original article.

Then I wrote a follow up on why “digg sucks” but only got 100 “diggs” for it (because all the digg fans on digg kept ‘burying’ it!) so I did not get much traffic to it from digg fans or digg haters (not that many of the latter on digg.)

The biggest traffic to it came from the bloggers and others who came to see what the all fuss was about as far as the original article. I had linked to the follow up article (on why I thought digg sucked) from the original article (i.e. like chaining magnets) so when people came to see what the fuss was all about with respect to the original article they were also told to check out the “digg sucks” article for context.

That worked! The original and second waves, which both had a long tail (see below) generated a total of 55,500 hits in ~4 days. That’s 13,875 page views a day for the first ~4 days.

Long Tail vs Sting

I know that some very observant bloggers have said that digg can only produce a sharp, short lived pulse of traffic (or a sting), as opposed to a long tail or a double-dipping long tail, as in my case, but those observations are for posts that are not themselves memes. When you have a meme you get the long tail (or an exponential decay) and when you chain memes as I did (which I guess I could have done faster as the second wave would have been much bigger) then you get a double-dipping long tail as I’m having now.

Today (which is 7 days after the original experiment) the traffic is over 800 hits so far, still on the strength of the original wave and the second wave (note that the flat like I had before the spike represents levels of traffic between ~100 to ~800, so don’t be fooled by the flatness, it’s relative to the scale of the graph.)

In other words, traffic is still going strong from the strength of the long-tail waves generated from the original post and the follow up one.

double

Links

  1. Wikipedia 3.0: The End of Google?
  2. For Great Justice, Take Off Every Digg
  3. Unwisdom of Crowds
  4. Self-Aware e-Society

Posted by Marc Fawzi

Tags:
Semantic Web, Web strandards, Trends, wisdom of crowds, tagging, Startup, mass psychology, Google, cult psychology, inference, inference engine, AI, ontology, Semanticweb, Web 2.0, Web 2.0, Web 3.0, Web 3.0, Google Base, artificial intelligence, AI, Wikipedia, Wikipedia 3.0, collective consciousness, digg, censorship

15 Comments »

  1. Update this in two weeks, after a Friday, Saturday, and Sunday, and a holiday in the middle of the week in the United States which means a lot of people are on vacation, and another weekend, and see what happens with traffic trends, including Digg related traffic. And check out my unscientific reseach on when the best time and day to post is on your blog, and compare what you find over the course of time, not just a couple days. I’m curious how days of the week and the informal research I did might reflect within your information. That will REALLY help us see the reality of your success.Still, you’ve gathered a ton of fabulous information. I found it interesting that the post title on your Digg sucks article kept changing every hour or so on the WordPress.com top lists. I think it was “Power of the Schwartz” that really caught my eye. 😉

    I wish you could check out how much traffic came from WordPress.com dashboards and top blog listing comparatively to Digg traffic results, as well as all the other social bookmarking sources which pick up Digg posts, and compare that information as to how directly your traffic was related solely to Digg. It was in the first place, but “then” what happened.

    There is a lot of whack things that go into driving traffic, and I also know that WordPress.com’s built in traffic charts don’t match up exactly and consistently with some of the external traffic reports I’ve checked for my WordPress.com blog, so only time will tell, and this will get more and more interesting as time goes on.

    Good work!

    Comment by Lorelle VanFossen — July 2, 2006 @ 11:19 am

  2. Yeah I caught myself saying “Merchandising Merchandising Merchandising” the other day!:)

    Well I noticed about 1000, 800, 600, 500 hits (in this order) from WordPress for those 4 days …

    Valleywag sent me about 12,000 (in total)

    Marc

    Comment by evolvingtrends — July 2, 2006 @ 11:26 am

  3. Great analysis on digg. It looks like digg or the memes can be somewhat influenced and analyzed. It’s almost like psycho analyzing a strange new brain.I find it very interesting how this all happened. Even if digg gave you a short pulse for a few days, it generated augmented daily traffic until now. I wouldn’t be surprised that new readers discovered you this way. The whole applications of traffic and readers are very fluid in nature. I wonder if they could be mapped in some way of form through fluid dynamics.

    Cheers

    Comment by range — July 3, 2006 @ 1:39 am

  4. It’s highly multi-disciplinary. It can be conquered but not as fast as you or I would like.This is like analyzing a strange new brain … a brain that is influenced greatly by everything except logic.

    I plan on analyzing it in the open for a long time to come, so stick around and add your thoughts to it. 🙂
    They say ‘observing something changes its outcome’ .. So we’ll see how it goes.

    Cheers,

    Marc

    Comment by evolvingtrends — July 3, 2006 @ 2:36 am

  5. […] 1. Digg This! 55,500 Hits in ~4 Days […]Pingback by Evolving Trends » Global Brain vs Google — July 3, 2006 @ 10:37 am
  6. […] This article has a follow-up part: Digg This! 55,500 Hits in ~4 Days […]Pingback by Evolving Trends » For Great Justice, Take Off Every Digg — July 3, 2006 @ 10:57 am
  7. Marc,I don’t know if this information helps or skews your research, but a post I wrote in January, titled to get Digg and other traffic attention, Horse Sex and What is Dictating Your Blog’s Content, did not do well at all. That is until the past three days.

    It’s really started piling up a lot of hits, sitting in the top 10 of my top posts, outreaching the other posts that get consistently high traffic by a huge margin. Until Saturday, that post was not even in the top 50 or 75. I can’t tell where the traffic is suddenly coming from, as WordPress.com doesn’t offer that kind of specific information, and I’m not getting any outstanding traffic from any single source. Nothing from Digg, but something is suddenly driving that post through the roof. Even during a holiday week in the US! Very strange.

    Maybe there’s a new fad in horse sex lately – who knows? 😉

    Still, the point is that this was written in January, and now it is getting attention in July. I’ll be checking to find out what is causing the sudden flush of traffic, but never doubt that your posts are ageless in many respects. So the long term study of Digg patterns and traffic will help all of us over the “long haul”. That’s why I’m really curious about the long term effects of your posts.

    Sometimes you just can’t predict the crowds. 😉 Or what they will suddenly be interested in. I’ve written so many posts and titles that I was sure would skyrocket traffic, only to lay there like empty beer bottles in the playground. Totally useless. And others with sloppy titles and written quickly with little attention to detail skyrocketing like 1000 bottles of coke filled with Mentos. 😉 It’s an interesting process, isn’t it?

    Comment by Lorelle VanFossen — July 3, 2006 @ 9:37 pm

  8. Predicting the weather for the long term is not currently feasible. However, predicting the weather for the short term is (1-2 days in davance.)But it’s not all about ‘predicting’ … It’s about studying the phenomenon so that we can make better choices to reduce the effect of uncertainty and not try to eliminate uncertainty.

    Marc

    Comment by evolvingtrends — July 4, 2006 @ 12:02 am

  9. I think then that the obvious question is why you’ve done nothing to monetize those hits, however fickle they might be!;)

    Comment by Sam Jackson — July 4, 2006 @ 4:42 pm

  10. Monetize, Monetize, Monetize!Fortunately, that won’t happen 🙂

    Marc

    Comment by evolvingtrends — July 4, 2006 @ 8:28 pm

  11. […] 4 – Digg This! 55,500 hits in ~4 Days A blogger explains how he ‘milked’ Digg for a major spike in traffic. Meme engineering in action; fascinating stuff. (tags: Wikipedia Google visits article post tail long spike scam traffic blogging blog meme Digg) […]Pingback by Velcro City Tourist Board » Blog Archive » Links for 05-07-2006 — July 4, 2006 @ 10:20 pm
  12. Since web traffic is dictated by humans and engines and not by some exterior force like the weather, I think that there are a lot of possible venues of analysis of it. The only thing is that the flow and traffic needs to be documented. In most cases, the traffic might be, but there lacks information on past flow. The internet is concentrated on the now and less with what happened ten days ago on this site and such.Mathematical Fluid dynamics are probably the way to go, though even if I am a mathematician, I’d have to research it a bit before pronouncing myself completely. These types of analysis can get quite complicated because of the implications of partial differential equations of an order higher than 2, which can not be solved only approximated numerically.

    I’m sure I’m not the only one to say this, but I like the types of discussions and content that you put forward, it gets the mind thinking on certain subjects that most of the time users tend to accept without question.

    Comment by range — July 4, 2006 @ 10:54 pm

  13. “the implications of partial differential equations of an order higher than 2, which can not be solved only approximated numerically.”Have you looked into Meyer’s methods of “invariant embedding” …? to convert PDEs to a set of ordinary differential equations then solve?

    I believe the investigation of hype management is extremely multi-disciplinary and very much like the weather. That means that while it’s deterministic (as everything is in essence with the exception of non-causal quantum theory) it’s still highly unstable and ultimately hard [in computationl terms] to predict.

    In general, uncertainty exists in every system, including maths itself (because of lack of absolute consistency and incompleteness), so while you can’t eliminate it you can hope to reduce it.

    But in practical terms, what I’m looking to do is to simply gain a sufficient minimum in insight to allow me to improve my chances at generating and surfing hype waves… I believe I will end up applying a non-formal theory such as framing theory to transform the problem from the computational domain to the cognitive domain (so I may use that 90% of the brain that we supposedly don’t use to carry out the computation with my own internal computational model.)

    Clarity, in simple terms, is what it’s all about.

    However, to reach clarity’s peak you have to climb a mountain of complexity 🙂

    Marc

    Comment by evolvingtrends — July 4, 2006 @ 11:10 pm

  14. Hey Marc!I now know what it feels like to be caught in a digg like wave. Right now, I have had over 141000 page views because of a post that I did this morning, explaining HDR photography.

    Since digg banned my url for some reason (I don’t know why, I haven’t posted anything to digg in the last 2 months), this was all done through del.icio.us, Reddit and Popurls. It’s like one thing leads to another. I have added an url giving a surface analysis of this situation.

    http://range.wordpress.com/2006/07/15/how-the-memoirs-got-127000-hits-in-a-few-hours-or-a-follow-up-post-to-modern-hdr-photography/

    Naturally, I find myself compelled to continue writing on the subject. I have already posted a follow-up article and I am working on another one right now. I knew I had a spike on weekends, nothing like this however.

    Comment by range — July 15, 2006 @ 7:29 pm

  15. Hey Marc.I think the main reason why I didn’t get any higher was because of the stat problem that WP has been having over the last few days.

    I hope they save this traffic so that I have some nice graphs to show you. They probably do. It felt like the counter was accurate, I checked out that I did indeed make onto a few memediggers, still am right now.

    And also the stat page was just so slow to catch up with the amount of traffic that was generated. WP couldn’t keep up.

    Hopefully, they will sort it out over the next few days. I think it was most surprising in the afternoon. I kept refreshing the counter, and oups, a few thousand here, ten thousand there. I was really surprised. And I have also started getting some haters, as you must know, with the good comes the bad.

    Comment by range — July 15, 2006 @ 8:49 pm

Read Full Post »

Evolving Trends

July 11, 2006

P2P 3.0: The People’s Google

/*

This is a more extensive version of the Web 3.0 article with extra sections about the implications of Web 3.0 to Google.

See this follow up article  for the more disruptive ‘decentralized kowledgebase’ version of the model discussed in article.

Also see this non-Web3.0 version: P2P to Destroy Google, Yahoo, eBay et al 

Web 3.0 Developers:

Feb 5, ‘07: The following reference should provide some context regarding the use of rule-based inference engines and ontologies in implementing the Semantic Web + AI vision (aka Web 3.0) but there are better, simpler ways of doing it. 

  1. Description Logic Programs: Combining Logic Programs with Description Logic

*/

In Web 3.0 (aka Semantic Web) P2P Inference Engines running on millions of users’ PCs and working with standardized domain-specific ontologies (created by Wikipedia, Ontoworld, other organizations or individuals) using Semantic Web tools, including Semantic MediaWiki, will produce an infomration infrastructure far more powerful than Google (or any current search engine.)

The availability of standardized ontologies that are being created by people, organizations, swarms, smart mobs, e-societies, etc, and the near-future availability of P2P Semantic Web Inference Engines that work with those ontologies means that we will be able to build an intelligent, decentralized, “P2P” version of Google.

Thus, the emergence of P2P Inference Engines and domain-specific ontologies in Web 3.0 (aka Semantic Web) will present a major threat to the central “search” engine model.

Basic Web 3.0 Concepts

Knowledge domains

A knowledge domain is something like Physics, Chemistry, Biology, Politics, the Web, Sociology, Psychology, History, etc. There can be many sub-domains under each domain each having their own sub-domains and so on.

Information vs Knowledge

To a machine, knowledge is comprehended information (aka new information produced through the application of deductive reasoning to exiting information). To a machine, information is only data, until it is processed and comprehended.

Ontologies

For each domain of human knowledge, an ontology must be constructed, partly by hand [or rather by brain] and partly with the aid of automation tools.

Ontologies are not knowledge nor are they information. They are meta-information. In other words, ontologies are information about information. In the context of the Semantic Web, they encode, using an ontology language, the relationships between the various terms within the information. Those relationships, which may be thought of as the axioms (basic assumptions), together with the rules governing the inference process, both enable as well as constrain the interpretation (and well-formed use) of those terms by the Info Agents to reason new conclusions based on existing information, i.e. to think. In other words, theorems (formal deductive propositions that are provable based on the axioms and the rules of inference) may be generated by the software, thus allowing formal deductive reasoning at the machine level. And given that an ontology, as described here, is a statement of Logic Theory, two or more independent Info Agents processing the same domain-specific ontology will be able to collaborate and deduce an answer to a query, without being driven by the same software.

Inference Engines

In the context of Web 3.0, Inference engines will be combining the latest innovations from the artificial intelligence (AI) field together with domain-specific ontologies (created as formal or informal ontologies by, say, Wikipedia, as well as others), domain inference rules, and query structures to enable deductive reasoning on the machine level.

Info Agents

Info Agents are instances of an Inference Engine, each working with a domain-specific ontology. Two or more agents working with a shared ontology may collaborate to deduce answers to questions. Such collaborating agents may be based on differently designed Inference Engines and they would still be able to collaborate.

Proofs and Answers

The interesting thing about Info Agents that I did not clarify in the original post is that they will be capable of not only deducing answers from existing information (i.e. generating new information [and gaining knowledge in the process, for those agents with a learning function]) but they will also be able to formally test propositions (represented in some query logic) that are made directly or implied by the user. For example, instead of the example I gave previously (in the Wikipedia 3.0 article) where the user asks “Where is the nearest restaurant that serves Italian cuisine” and the machine deduces that a pizza restaurant serves Italian cuisine, the user may ask “Is the moon blue?” or say that the “moon is blue” to get a true or false answer from the machine. In this case, a simple Info Agent may answer with “No” but a more sophisticated one may say “the moon is not blue but some humans are fond of saying ‘once in a blue moon’ which seems illogical to me.”

This test-of-truth feature assumes the use of an ontology language (as a formal logic system) and an ontology where all propositions (or formal statements) that can be made can be computed (i.e. proved true or false) and were all such computations are decidable in finite time. The language may be OWL-DL or any language that, together with the ontology in question, satisfy the completeness and decidability conditions.

P2P 3.0 vs Google

If you think of how many processes currently run on all the computers and devices connected to the Internet then that should give you an idea of how many Info Agents can be running at once (as of today), all reasoning collaboratively across the different domains of human knowledge, processing and reasoning about heaps of information, deducing answers and deciding truthfulness or falsehood of user-stated or system-generated propositions.

Web 3.0 will bring with it a shift from centralized search engines to P2P Semantic Web Inference Engines, which will collectively have vastly more deductive power, in both quality and quantity, than Google can ever have (included in this exclusion is any future AI-enabled version of Google, as it will not be able to keep up with the distributed P2P AI matrix that will be enabled by millions of users running free P2P Semantic Web Inference Engine software on their home PCs.)

Thus, P2P Semantic Web Inference Engines will pose a huge and escalating threat to Google and other search engines and will expectedly do to them what P2P file sharing and BitTorrent did to FTP (central-server file transfer) and centralized file hosting in general (e.g. Amazon’s S3 use of BitTorrent.)

In other words, the coming of P2P Semantic Web Inference Engines, as an integral part of the still-emerging Web 3.0, will threaten to wipe out Google and other existing search engines. It’s hard to imagine how any one company could compete with 2 billion Web users (and counting), all of whom are potential users of the disruptive P2P model described here.

“The Future Has Arrived But It’s Not Evenly Distributed”

Currently, Semantic Web (aka Web 3.0) researchers are working out the technology and human resource issues and folks like Tim Berners-Lee, the Noble prize recipient and father of the Web, are battling critics and enlightening minds about the coming human-machine revolution.

The Semantic Web (aka Web 3.0) has already arrived, and Inference Engines are working with prototypical ontologies, but this effort is a massive one, which is why I was suggesting that its most likely enabler will be a social, collaborative movement such as Wikipedia, which has the human resources (in the form of the thousands of knowledgeable volunteers) to help create the ontologies (most likely as informal ontologies based on semantic annotations) that, when combined with inference rules for each domain of knowledge and the query structures for the particular schema, enable deductive reasoning at the machine level.

Addendum

On AI and Natural Language Processing

I believe that the first generation of AI that will be used by Web 3.0 (aka Semantic Web) will be based on relatively simple inference engines (employing both algorithmic and heuristic approaches) that will not attempt to perform natural language processing. However, they will still have the formal deductive reasoning capabilities described earlier in this article.

Related

  1. Wikipedia 3.0: The End of Google?
  2. Intelligence (Not Content) is King in Web 3.0
  3. Get Your DBin
  4. All About Web 3.0

Posted by Marc Fawzi

Enjoyed this analysis? You may share it with others on:

digg.png newsvine.png nowpublic.jpg reddit.png blinkbits.png co.mments.gif stumbleupon.png webride.gif del.icio.us

Read Full Post »

Older Posts »

%d bloggers like this: