Connect with us
La firma

Inteligencia Artificial: diferencia entre conocimiento e inteligencia creadora

"La IA es incapaz de innovar o crear nada"

(Foto: E&J)

José Luis Villar Ezcurra

Profesor Titular de Derecho Administrativo (UCM) y socio fundador de Villar y Asociados Abogados




Tiempo de lectura: 14 min

Publicado




La firma

Inteligencia Artificial: diferencia entre conocimiento e inteligencia creadora

"La IA es incapaz de innovar o crear nada"

(Foto: E&J)



Mucho se viene hablando de las bondades de la IA (Inteligencia Artificial) y mucho se seguirá hablando porque hoy son muchos los que piensan que ahí se encuentra el futuro de nuestro conocimiento y echan su propio cerebro a dormir la siesta. Una siesta que amenaza con perpetuarse y por meter en la despensa del olvido a la verdadera inteligencia humana, que es lo que nunca deberíamos olvidar. No en vano, se atribuye al propio Einstein la conocida frase de que la imaginación es más importante que el conocimiento, porque (sigue diciendo), el conocimiento es limitado y la imaginación circunda el mundo. Y así lo entiendo yo al menos, ya que la llamada IA no es más que una magnífica gestión del conocimiento, pero de ahí no sale, porque resulta incapaz de innovar o crear nada.

Coloquialmente, el término IA se aplica cuando una máquina imita las funciones «cognitivas» que los humanos asocian con otras mentes humanas, como por ejemplo: «percibir», «razonar», «aprender» y «resolver problemas».​ Andreas Kaplan y Michael Haenlein definieron la inteligencia artificial como «la capacidad de un sistema para interpretar correctamente datos externos, para aprender de dichos datos y emplear esos conocimientos para lograr tareas y metas concretas a través de la adaptación flexible».[1] O sea, y en definitiva, se trata de un simple medio para organizar y gestionar datos que es ciertamente muy útil pero que, en modo alguno, sustituye a la verdadera inteligencia creadora.



El término «Inteligencia Artificial» fue acuñado, formalmente, en 1956 durante la conferencia de Dartmouth, pero para entonces ya se había estado trabajando en ello durante cinco años en los cuales se había propuesto muchas definiciones distintas que en ningún caso habían logrado ser aceptadas totalmente por la comunidad investigadora. Las ideas más básicas se remontan a los griegos, antes de Cristo. Aristóteles (384-322 a. C.) fue el primero en describir un conjunto de reglas que describen una parte del funcionamiento de la mente para obtener conclusiones racionales, y Ctesibio de Alejandría (250 a. C.) construyó la primera máquina autocontrolada, un regulador del flujo de agua (racional, pero sin razonamiento). En 1315 Ramon Llull en su libro Ars magna tuvo la idea de que el razonamiento podía ser efectuado de manera artificial.



«La IA tiene como objetivo construir modelos computacionales que al ejecutarse resuelvan tareas con resultados similares a los obtenidos por una persona». (Foto: E&J)

Y dando un enorme salto en el tiempo, llegamos a 1936, año en el que Alan Turing diseña formalmente una máquina universal que demuestra la viabilidad de un dispositivo físico para implementar cualquier cómputo formalmente definido. En 1943 Warren McCulloch y Walter Pitts presentaron su modelo de neuronas artificiales, el cual se considera el primer trabajo del campo, aun cuando todavía no existía el término. No obstante, los primeros avances importantes comenzaron a principios del año 1950 con el trabajo de Alan Turing, a partir de lo cual la ciencia ha pasado por diversas situaciones.[2]



Dicho lo anterior y si analizamos detenidamente las muchas definiciones que se han dado al término IA, encontramos que suele ser común en su gran mayoría la mención de la gestión del conocimiento, de una forma u otra.: Así, según Barr y Feigenbaum, la representación del conocimiento es una combinación de estructuras de datos y procedimientos de interpretación que, si son utilizados correctamente por un programa, éste podrá exhibir una conducta inteligente (entendiendo por tal el hecho de hallar una solución simplemente correcta, pero no novedosa).[3] Según Fariñas y Verdejo, la IA tiene como objetivo construir modelos computacionales que al ejecutarse resuelvan tareas con resultados similares a los obtenidos por una persona, por lo que el tema central de esta disciplina es el estudio del conocimiento y su manejo.[4] Y según Buchanan y Shortliffe, la representación del conocimiento en un programa de Inteligencia Artificial significa elegir una serie de convenciones para describir objetos, relaciones, y procesos en el mundo.[5] Destaco especialmente de estas definiciones la referencia a la gestión del conocimiento (especialmente, en la última de ellas) puesto que eso y no otra cosa, es lo que supone la denominada Inteligencia Artificial (IA o AÏ tomando la expresión en inglés).

Especialmente interesante me parecen las palabras de López de Mántaras [6] al señalar que el objetivo último de la IA, lograr que una máquina tenga una inteligencia de tipo general similar a la humana, es uno de los objetivos más ambiciosos que se ha planteado la ciencia. [7] Y continúa exponiendo que, en 1965, el filósofo Hubert Dreyfus afirmó que el objetivo último de la IA, es decir, la IA fuerte de tipo general, era tan inalcanzable como el objetivo de los alquimistas del siglo XVII que pretendían transformar el plomo en oro. Dreyfus argumentaba que el cerebro procesa la información de manera global y continua mientras que un ordenador utiliza un conjunto finito y discreto de operaciones deterministas aplicando reglas a un conjunto finito de datos.[8] Y termina con la siguiente reflexión final (que comparto plenamente): “por muy inteligentes que lleguen a ser las futuras inteligencias artificiales, incluidas las de tipo general, nunca serán iguales a las inteligencias humanas ya que, tal como hemos argumentado, el desarrollo mental que requiere toda inteligencia compleja depende de las interacciones con el entorno y estas interacciones dependen a su vez del cuerpo, en particular del sistema perceptivo y del sistema motor. [9] De hecho, es la misma conclusión a la que llega Weizenbaum, consistente en que ninguna máquina debería nunca tomar decisiones de forma completamente autónoma o dar consejos que requieran, entre otras cosas, de la sabiduría, producto de experiencias humanas, así como de tener en cuenta valores humanos.[10]

Y es que, por muy inteligentes que lleguen a ser las futuras inteligencias artificiales nunca serán como la humana; el desarrollo mental que requiere toda inteligencia compleja depende de las interacciones con el entorno y estas dependen a su vez del cuerpo, en particular de los sistemas perceptivo y motor.[11]

Porque esa diferencia entre la gestión del conocimiento y la creación de nuevos modelos (en filosofía, arte, matemáticas, física o en Derecho) es lo que marca el deslinde entre la denominada inteligencia artificial y la inteligencia natural, que es propia del ser humano (evidentemente, de algunos de ellos, no muchos, que no de todos). No se le puede pedir a la IA que componga una sinfonía o un nuevo enfoque filosófico porque eso dista mucho de sus posibilidades y así lo muestran los diversos intentos frustrados realizados en estos dos ámbitos. Se le puede pedir, desde luego, pero los resultados serán un estrepitoso fracaso, como así ha sucedido con la música (y los intentos frustrados con la fallida décima Sinfonía de Beethoven) o con la filosofía (entendida al modo de Wittgenstein).

Así, en lo concerniente a la música, recordemos que cuando Beethoven murió, y mientras esbozaba su décima sinfonía, sembró una superstición. El legado del compositor alemán al gran sinfonismo romántico, ese que él concibió y bautizó con la Novena, quedó marcado por ese número: el nueve. Nueve fueron las sinfonías de Beethoven, pero también las de Schubert, Dvorak, Bruckner o Mahler. Todos ellos fallecieron tras escribir la nona. Para los más aprensivos, componer la décima era una osadía porque suponía franquear la frontera del dios Beethoven. Y se castigaba con la muerte. Supersticiones a un lado -muchos otros compositores han estrenado más de diez sinfonías-, ha sido un algoritmo el que se ha atrevido a abrir la senda del genio de Bonn. Un equipo de musicólogos, científicos y compositores ha terminado la Décima sinfonía de Beethoven gracias a la IA. En el proyecto ‘Beethoven X’, de Deustche Telekom, se han servido de los bocetos en los que trabajaba el compositor antes de morir. La obra se estrenó el pasado 9 de octubre de 2021 a cargo de la Orquesta Beethoven de Bonn., sin despertar demasiado entusiasmo.[12]  No en vano Röder, el director del proyecto, se expresó así respecto a esta obra: «No tengo dudas de que, si Beethoven viviera hoy, contaría con un equipo de investigación que apoyara su trabajo artístico en la IA o en otras tecnologías innovadoras». Dicho de otro modo, la IA no pasaría de ser, en la música, una excelente ayuda, pero sin llegar a sustituir al “músico creador”.

Billete de Ludwig van Beethoven. (Foto: E&J)

Y por lo que concierne a la filosofía el autor elegido para aplicar la IA ha sido Wittgenstein dada la especial atención que presta al lenguaje.[13] En síntesis, Wittgenstein intenta desarrollar las herramientas necesarias para conseguir una filosofía objetiva y científica, estableciendo límites a lo que puede decirse y a lo que no. Afirma rotundamente que «los límites de mi lenguaje son los límites de mi mundo». Su influencia es enorme en la filosofía, especialmente en la anglosajona. Wittgenstein piensa que el verdadero papel de la filosofía consiste en determinar los límites de lo que puede decirse y de lo que puede ser representado por el lenguaje. Y afirma radicalmente que «hemos de guardar silencio respecto a lo que no se puede expresar con el lenguaje». Por tanto, la filosofía de Wittgenstein puede ser muy útil como base para implementar una aplicación de la IA orientada a la preevaluación ética,.[14] Una mera aplicación de ayuda al filósofo que no convierte a la IA en filósofo creador, puesto que sigue sin pasar de ser simple ayudante del mismo, al igual que se ha dicho respecto a la música (lo cual es extrapolable a todas las áreas del conocimiento ligadas a la creación).

Lo mismo sucederá con el Derecho, en donde cada vez resulta más evidente la utilidad de la inteligencia artificial como ayuda para la gestión del conocimiento. Y ello, no solo por la necesidad de contar con buenas bases de datos, sino también por la necesidad de obtener una buena gestión de estos datos (tal sería el caso de encontrar la norma y doctrina vigente ya aplicable a cada supuesto). Pero, Dios nos libre de poner a un ordenador a impartir Justicia o a subrogarse en el papel de los diferentes operadores jurídicos, porque, no en vano el Derecho sigue siendo un “arte” más que una ciencia, respondiendo al viejo postulado romano del “ars boni et aequi” que nunca debe abandonar. Otra cosa es que existan “creaciones” jurídicas”, entendiendo por tales a los sistemas de concepción del Derecho (en su creación y/o su aplicación) que permiten o ayudan a los “operadores jurídicos” a encontrar la solución idónea en cada caso.

Tal sería el caso de la Teoría Pura del Derecho de Hans Kelsen (con su pirámide normativa) o de la Teoría de los Grupos normativos (de Villar Palasí), en donde se combina el álgebra de Boole con el Derecho, mediante la utilización de conceptos tales como la “isomorfía” o la “isometría” para encontrar la norma vigente y aplicable a cada caso concreto.[15] Porque dudo mucho que un simple programa de IA (sin las debidas indicaciones dadas por un humano) llegase a encontrar la interrelación entre el Derecho y  el álgebra de Boole. Y es que, repito, la creación es algo reservado al ser humano por muchos defectos que siga teniendo …. Hay juristas muy finos en la exposición de los datos y en los razonamientos, pero muy pocos llegan a hacer auténtica “magia” cuando se les encomiendan asuntos teóricamente imposibles, y ahí es donde se encuentra la verdadera inteligencia creadora.

Porque, como decía Kant “La inteligencia de un individuo se mide por la cantidad de incertidumbre que es capaz de soportar”, y es ahí en donde se encuentra el reducto de la verdadera creación y no en la mera gestión de los datos (por muy buena y útil que sea).

[1]  Andreas Kaplan; Michael Haenlein (2019) Siri, Siri in my Hand, who’s the Fairest in the Land? On the Interpretations, Illustrations and Implications of Artificial Intelligence, Business Horizons, 62(1), 15-25.

[2] Y, más adelante, en 1955 Herbert Simon, Allen Newell y J. C. Shaw, desarrollan el primer lenguaje de programación orientado a la resolución de problemas, el IPL-11. Un año más tarde desarrollan el LogicTheorist, el cual era capaz de demostrar teoremas matemáticos. En 1956 fue inventado el término inteligencia artificial por John McCarthy, Marvin Minsky y Claude Shannon en la Conferencia de Dartmouth, un congreso en el que se hicieron previsiones triunfalistas a diez años que jamás se cumplieron, lo que provocó el abandono casi total de las investigaciones durante quince años. En 1957 Newell y Simon continúan su trabajo con el desarrollo del General Problem Solver (GPS). GPS era un sistema orientado a la resolución de problemas. En 1958 John McCarthy desarrolla en el Instituto de Tecnología de Massachusetts (MIT) el LISP. Su nombre se deriva de LISt Processor. LISP fue el primer lenguaje para procesamiento simbólico. En 1959 Rosenblatt introduce el Perceptrón. A finales de la década de 1950 y comienzos de la de 1960 Robert K. Lindsay desarrolla «Sad Sam», un programa para la lectura de oraciones en inglés y la inferencia de conclusiones a partir de su interpretación. En 1963 Quillian desarrolla las redes semánticas como modelo de representación del conocimiento. En 1964 Bertrand Raphael construye el sistema SIR (Semantic Information Retrieval) el cual era capaz de inferir conocimiento basado en información que se le suministra. Bobrow desarrolla STUDENT. A mediados de los años 60, aparecen los sistemas expertos, que predicen la probabilidad de una solución bajo un set de condiciones. Por ejemplo, DENDRAL, iniciado en 1965 por Buchanan, Feigenbaum y Lederberg, el primer Sistema Experto, que asistía a químicos en estructuras químicas complejas, MACSYMA, que asistía a ingenieros y científicos en la solución de ecuaciones matemáticas complejas. Posteriormente entre los años 1968-1970 Terry Winograd desarrolló el sistema SHRDLU, que permitía interrogar y dar órdenes a un robot que se movía dentro de un mundo de bloques. En 1968 Marvin Minsky publica Semantic Information Processing. En 1968 Seymour Papert, Danny Bobrow y Wally Feurzeig desarrollan el lenguaje de programación LOGO.En 1969 Alan Kay desarrolla el lenguaje Smalltalk en Xerox PARC y se publica en 1980. En 1973 Alain Colmenauer y su equipo de investigación en la Universidad de Aix-Marseille crean PROLOG (del francés PROgrammation en LOGique) un lenguaje de programación ampliamente utilizado en IA. En 1973 Shank y Abelson desarrollan los guiones, o scripts, pilares de muchas técnicas actuales en Inteligencia Artificial y la informática en general. En 1974 Edward Shortliffe escribe su tesis con MYCIN, uno de los Sistemas Expertos más conocidos, que asistió a médicos en el diagnóstico y tratamiento de infecciones en la sangre. En las décadas de 1970 y 1980, creció el uso de sistemas expertos, como MYCIN: R1/XCON, ABRL, PIP, PUFF, CASNET, INTERNIST/CADUCEUS, etc. Algunos permanecen hasta hoy (Shells) como EMYCIN, EXPERT, OPSS. Fuente: «Andreas Kaplan (2022) Artificial Intelligence, Business and Civilization – Our Fate Made in Machines, Routledge, ISBN 9781032155319»

[3] The Handbook of Artificial Intelligence; HEURISTECH PRESS,Stanford, California, 1982

[4] Inteligencia artificial fácil Machine Learning y Deep Learning prácticos. Ed ENI. ISBN 9782409025327

[5] Buchanan, B. G. & Shortliffe, E.H. (1984) “Rule-Based Expert Systems: The MYCIN Experi- ments of the Stanford Heuristic Programming Project”. Addison Wesley, Gran parte del esfuerzo realizado en la consecución de ordenadores inteligentes, según Rahael, ha sido caracterizado por el intento continuo de conseguir más y mejores estructuras de representación del conocimiento, junto con técnicas adecuadas para su manipulación, que permitiesen la resolución inteligente de algunos de los problemas ya planteados.

[6] López de Mántaras, R., «El futuro de la IA: hacia inteligencias artificiales realmente inteligentes», en ¿Hacia una nueva Ilustración? Una década trascendente, Madrid, BBVA, 2018.

[7] Seguidamente añade que “el diseño y realización de inteligencias artificiales que únicamente muestran comportamiento inteligente en un ámbito muy específico, está relacionado con lo que se conoce por IA débil en contraposición con la IA fuerte a la que, de hecho, se referían Newell y Simon y otros padres fundadores de la IA. Aunque estrictamente la hipótesis SSF se formuló en 1975, ya estaba implícita en las ideas de los pioneros de la IA en los años cincuenta e incluso en las ideas de Alan Turing en sus escritos pioneros (Turing, 1948, 1950) sobre máquinas inteligentes. La IA fuerte implicaría que un ordenador convenientemente diseñado no simula una mente sino que es una mente y por consiguiente debería ser capaz de tener una inteligencia igual o incluso superior a la humana. Searle en su artículo intenta demostrar que la IA fuerte es imposible. En este punto conviene aclarar que no es lo mismo IA general que IA fuerte. Existe obviamente una conexión pero solamente en un sentido, es decir que toda IA fuerte será necesariamente general pero puede haber IA generales, es decir multitarea, que no sean fuertes, que emulen la capacidad de exhibir inteligencia general similar a la humana pero sin experimentar estados mentales. La IA débil, por otro lado, consistiría, según Searle, en construir programas que realicen tareas específicas y, obviamente sin necesidad de tener estados mentales.

[8] De hecho (sigue diciendo López de Mántaras) “el sentido común es requisito fundamental para alcanzar una IA similar a la humana en cuanto a generalidad y profundidad. Los conocimientos de sentido común son fruto de nuestras vivencias y experiencias. Algunos ejemplos son: «el agua siempre fluye de arriba hacia abajo», «para arrastrar un objeto atado a una cuerda hay que tirar de la cuerda, no empujarla», «un vaso se puede guardar dentro de un armario, pero no podemos guardar un armario dentro de un vaso», etcétera. Hay millones de conocimientos de sentido común que las personas manejamos fácilmente y que nos permiten entender el mundo en el que vivimos. Una posible línea de investigación que podría dar resultados interesantes en adquisición de conocimientos de sentido común es la robótica del desarrollo mencionada anteriormente. Otra línea de trabajo muy interesante es la que tiene como objetivo la modelización matemática y el aprendizaje de relaciones causa-efecto, es decir, el aprendizaje de causales y, por lo tanto, asimétricos del mundo. Los sistemas actuales basados en aprendizaje profundo simplemente pueden aprender funciones matemáticas simétricas, no pueden aprender relaciones asimétricas y por consiguiente no son capaces de diferenciar entre causas y efectos, como por ejemplo que la salida del sol es la causa del canto del gallo y no lo contrario”.

[9] Diciendo, a continuación, que “ello, junto al hecho de que las máquinas no seguirán procesos de socialización y culturización como los nuestros, incide todavía más en que, por muy sofisticadas que lleguen a ser, serán inteligencias distintas a las nuestras. El que sean inteligencias ajenas a la humana y, por lo tanto, ajenas a los valores y necesidades humanas nos debería hacer reflexionar sobre posibles limitaciones éticas al desarrollo de la IA

[10] Citado por el propio López de Mántaras.

[11] Frase, también, del propio López de Mántaras

[12] La Inteligencia Artificial aprende diferentes aspectos del proceso creativo de Beethoven”, explica a este periódico Ahmed Elgammal, director del Laboratorio de Arte e Inteligencia Artificial de la Universidad Rutgers y uno de los científicos involucrados en el proyecto. “El algoritmo aprende cómo desarrolla Beethoven un segmento de música, cómo armoniza una melodía, cómo enlaza las diferentes secciones de la sinfonía, cómo orquesta sus composiciones… En todas estas tareas, la IA tuvo que analizar mucha música para entender cómo lo hacía Beethoven”. Sin ir más lejos, el tercer movimiento de esta Décima sinfonía es un Scherzo con ecos evidentes de la Quinta sinfonía (con su motivo característico de cuatro notas). El desarrollo temático es obra de un software creado para imitar el lenguaje de Beethoven (imitar, no crear, por tanto). Vid el siguiente link: https://www.elconfidencial.com/cultura/2021-10-24/algoritmo-decima-sinfonia-beethoven_3310693/

[13] La obra principal de Wittgenstein es el Tractatus logico-philosophicus. Alianza Editorial, Madrid 2009. La concepción de la filosofía de Wittgenstein le sirve principalmente para denunciar la filosofía tal como ha sido practicada antes que él. Los filósofos hacen un uso inapropiado del lenguaje, enuncian proposiciones insensatas y utilizan términos sin referentes. Y peor aún, se equivocan en cuanto a la naturaleza de lo que realizan: Creen hablar de lo real cuando no es este el caso. La filosofía se toma entonces como una teoría, como una ciencia. Para comprender el libro de Wittgenstein es preciso comprender el problema con que se enfrenta. En la parte de su teoría que se refiere al simbolismo se ocupa de las condiciones que se requieren para conseguir un lenguaje lógicamente perfecto. Hay varios problemas con relación al lenguaje. En primer lugar, está el problema de qué es lo que efectivamente ocurre en nuestra mente cuando empleamos el lenguaje con la intención de significar algo con él; este problema pertenece a la psicología. En segundo lugar, está el problema de la relación existente entre pensamientos, palabras y proposiciones y aquello a lo que se refieren o significan; este problema pertenece a la epistemología. En tercer lugar, está el problema de usar las proposiciones-de tal modo que expresen la verdad antes que la falsedad; esto pertenece a las ciencias especiales que tratan de las materias propias de las proposiciones -en cuestión. En cuarto lugar, está la cuestión siguiente: ¿Qué relación debe haber entre un hecho (una proposición, por ejemplo) y otro hecho para que el primero sea capaz de ser un símbolo del segundo? Esta última es una cuestión lógica y es precisamente la única de que Wittgenstein se ocupa. Estudia las condiciones de un simbolismo correcto, es decir, un simbolismo en el cual una proposición «signifique» algo suficientemente definido. En la práctica, el lenguaje es siempre más o menos vago, ya que lo que afirmamos no es nunca totalmente preciso. Así pues, la lógica

ha de tratar de dos problemas en relación con el simbolismo: l.° Las condiciones para que se dé el sentido mejor que el sinsentido en las combinaciones de símbolos; 2.º Las condiciones para que exista unicidad de significado o referencia en los símbolos o en las combinaciones de símbolos. Un lenguaje lógicamente perfecto tiene reglas de sintaxis que evitan los sinsentidos, y tiene símbolos articulares con un significado determinado y único. Wittgenstein estudia las condiciones necesarias para un lenguaje lógicamente perfecto. No es que haya lenguaje lógicamente perfecto, o que nosotros nos creamos aquí y ahora capaces de construir un lenguaje lógicamente perfecto, sino que toda función del lenguaje consiste en tener significado y sólo cumple esta función satisfactoriamente en la medida en que se aproxima al lenguaje ideal que nosotros postulamos. Vid: Prólogo al Tractatus de Bertram Russel (1921) que puede leerse en el siguiente  link: https://www.pensamientopenal.com.ar/system/files/2014/12/doctrina29684.pdfhttps://www.pensamientopenal.com.ar/system/files/2014/12/doctrina29684.pdf

[14] Conceptos referentes a la ética pueden quedar fuera de la frontera del lenguaje trazada por Wittgenstein, pero la ventaja de utilizar su filosofía para un modelo IA es que proporciona una metodología y estructura muy atractiva a la hora de diseñarlo y ejecutarlo. De hecho, si Wittgenstein está en lo cierto, quizá es un emparejamiento casi perfecto para ambas disciplinas (filosofía y AI). Tecnologías como NLP (Natural Language Processing), ML (Machine Learning) o DL (Deep Learning) parecen idóneas para implementar esta funcionalidad. Además, los adelantos en gestión y orquestación de datos (organización de formatos diversos de datos) para ser procesados con IA avanzan rápidamente y contribuyen a una alimentación más consistente de los algoritmos. Incluso sería posible detectar proposiciones Wittgenstein poco visibles y poder aflorarlas, ampliando las posibilidades del sistema .Sobre la relación entre la filosofía de Wittgenstein y la Inteligencia Artificial, me remito al siguiente link: https://filco.es/filosofia-y-tecnologia-wittgenstein/

[15] Me remito al respecto, a lo expuesto en mi post FISIÓN Y FUSIÓN DE LAS NORMAS: LOS GRUPOS NORMATIVOS que puede leerse en el siguiente link: https://www.linkedin.com/pulse/fisi%C3%B3n-y-fusi%C3%B3n-de-las-normas-los-grupos-normativos-villar-ezcurra/

Click para comentar

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *