Inteligencia Artificial

  • Iniciador del tema Iniciador del tema MuRRaY
  • Fecha de inicio Fecha de inicio
Muy buen tema.
Creo que una máquina no podrá pensar como un hombre nunca, Y lo pongo así, porque si creo que llegará a poder razonar mas allá de cosas deterministas como los sistemas expertos. Lo que si sé es lo que se puede hacer ahora y es que un programa de ordenador desde los años 50 puede demostrar teoremas matematicos o se pueden construir redes que simulan el comportamiento del cerebro humano ,de una forma muy limitada,a las cuales se le puede enseñar a diferenciar peras de limones (por ejemplo) por su peso y dimensiones, o se puede crear un sistema experto que diagnostique una enfermedad por sus sintomas. Un ordenador puede sumar 2+2 mas rapido que un humano, pero un ordenador no sabe porque y para qué debe hacerlo o que es 2+2. Y si ya entramos en lo que es el reconocimiento de lenguaje natural apaga y vamonos. Un ordenador sabria deducir el significado de esta famosa frase:
Socrates es un hombre.
Todos los hombres son mortales.
Socrates es mortal.
Pero no sabria las infinitas connotaciones que el archiconocido,

HIJO DE PUTA

tiene y cual de ellas es la idonea para ese momento.
La IA esta estancada y no avanza porque tiene graves problemas de fundamento, los padres de la disciplina Newell, Chomsky etc.. ect.. se creian que iban a comerse el mundo pero se han comido una caca. Existe hasta una prueba llamada el "Test de Turing", que permitiria saber si una maquina tiene comportamiento inteligente.
Ahora leed mi firma y reflexionad. Si Dijkstra lo dijo seria por algo.
Esto es la IA (por lo que sé y me acuerdo ahora) lo demás es ciencia ficción.
 
metadona_user rebuznó:
- Otro impacto en los humanos desde una perspectiva social. Sí como dice Asimov, los robots fuesen incapaces de rebelarse contra nosotros. ¿Nos librarían las IA del trabajo al hombre?, ¿Y sí todas las tareas las hicieran ellos?.

El propio Asimov ya responde a ello tanto en Los Robots del Amanecer como en Robots e Imperio. Las sociedades de los Mundos Espaciales, provenientes de la primera oleada de colonización terrícola, eran sociedades muy robotizadas, dependían totalmente de los robots (el caso más extremo, el del planeta Solaria, que llegaban a tener 10.000 robots por persona). Dependían tanto de ellos que a su vez sus propios robots actuaban como jaula, y apenas avanzaban.

Se comenzó con robots sustituyendo simplemente los trabajos más duros (como las minas de Mercurio), y acabaron usándolos para todo tipo de cosas, desde vigilar la Hacienda, hasta servir el desayuno. Al final se convertían en sociedades apalancadas, ellas mismas se destruyeron a partir de eso. Precisamente por eso Asimov dejó claro en sus novelas de robots que la segunda oleada de colonizaciones de la Tierra, para que tuviera un éxito real y una extensión importante, debía ser sin robots.
 
metadona_user rebuznó:
- Otro impacto en los humanos desde una perspectiva social. Sí como dice Asimov, los robots fuesen incapaces de rebelarse contra nosotros. ¿Nos librarían las IA del trabajo al hombre?, ¿Y sí todas las tareas las hicieran ellos?.

El propio Asimov ya responde a ello tanto en Los Robots del Amanecer como en Robots e Imperio. Las sociedades de los Mundos Espaciales, provenientes de la primera oleada de colonización terrícola, eran sociedades muy robotizadas, dependían totalmente de los robots (el caso más extremo, el del planeta Solaria, que llegaban a tener 10.000 robots por persona). Dependían tanto de ellos que a su vez sus propios robots actuaban como jaula, y apenas avanzaban.

Se comenzó con robots sustituyendo simplemente los trabajos más duros (como las minas de Mercurio), y acabaron usándolos para todo tipo de cosas, desde vigilar la Hacienda, hasta servir el desayuno. Al final se convertían en sociedades apalancadas, ellas mismas se destruyeron a partir de eso. Precisamente por eso Asimov dejó claro en sus novelas de robots que la segunda oleada de colonizaciones de la Tierra, para que tuviera un éxito real y una extensión importante, debía ser sin robots.
 
La clave está en que los robots no aprendan a "reproducirse", deben ser incapaces de crear a un semejante desde la nada, deben estar programados para pensar que sólo el hombre puede crearlos.
 
La clave está en que los robots no aprendan a "reproducirse", deben ser incapaces de crear a un semejante desde la nada, deben estar programados para pensar que sólo el hombre puede crearlos.
 
Veo que muchos decís que la IA nunca podrá concebirse como una auténtica inteligencia autónoma por la imposibilidad de que se asemeje a la mente humana.

En esto, coincido los comentarios de que el principal problema es la consciencia de sí mismo y el tema de la muerte. Precisamente ambas cosas están relacionadas, ya que es la propia consciencia, el ser conscientes de que existimos, lo que nos genera ese miedo a la muerte "real" (en los animales es simplemente instinto). Debido a ello buscamos soluciones a los problemas de la vida (enfermedades, etc.) y buscamos mayor comodidad en el tiempo durante el cual vivimos (construímos sociedades, organización, viviendas, progreso...).

Lo que no entiendo es por qué pensáis que es imposible que la IA algún día alcance ese nivel. Ahora mismo está claro que todo son respuestas preprogramadas y simples conocimientos implantados pero, ¿por qué algún día no puede ser diferente? Aún sigue siendo casi un misterio la aparición de la psique en el proceso de evolución humana. Hay diferentes teorías de que se adquirió en un momento u otro durante el proceso de hominización, quizá por el desarrollo del lenguaje, quizá este se desarrolló tras la inteligencia (también con esto hay diversas teorías, como supongo que sabréis), etc., pero aún no se puede explicar claramente cuándo surgió.

Teniendo en cuenta esto, al igual que la consciencia y la inteligencia son unas características puramente humanas, pero que nadie colocó ahí deliberadamente, sino que surgió de alguna forma, se podría decir que la IA podría alcanzar alguna vez ese punto, también de forma espontánea. Quizá el problema es que esa consciencia debería surgir a partir de instintos animales, como el de supervivencia, del cual las máquinas carecen. Sin embargo, si se les programa para protegerse a sí mismas, aunque no sepan por qué deben hacerlo, ¿no dejaría eso de ser un instinto? Se protegen, pero no son totalmente conscientes de por qué. Poco a poco, y reconstruyendo el proceso de evolución humano, se podría colocar a las máquinas de IA en el punto adecuado en el cual podría surgir ese proceso de adquisición de la consciencia.

Ahora mismo parece inviable, pero si uno se para a pensar no parece tan difícil como aparenta al principio.
 
Veo que muchos decís que la IA nunca podrá concebirse como una auténtica inteligencia autónoma por la imposibilidad de que se asemeje a la mente humana.

En esto, coincido los comentarios de que el principal problema es la consciencia de sí mismo y el tema de la muerte. Precisamente ambas cosas están relacionadas, ya que es la propia consciencia, el ser conscientes de que existimos, lo que nos genera ese miedo a la muerte "real" (en los animales es simplemente instinto). Debido a ello buscamos soluciones a los problemas de la vida (enfermedades, etc.) y buscamos mayor comodidad en el tiempo durante el cual vivimos (construímos sociedades, organización, viviendas, progreso...).

Lo que no entiendo es por qué pensáis que es imposible que la IA algún día alcance ese nivel. Ahora mismo está claro que todo son respuestas preprogramadas y simples conocimientos implantados pero, ¿por qué algún día no puede ser diferente? Aún sigue siendo casi un misterio la aparición de la psique en el proceso de evolución humana. Hay diferentes teorías de que se adquirió en un momento u otro durante el proceso de hominización, quizá por el desarrollo del lenguaje, quizá este se desarrolló tras la inteligencia (también con esto hay diversas teorías, como supongo que sabréis), etc., pero aún no se puede explicar claramente cuándo surgió.

Teniendo en cuenta esto, al igual que la consciencia y la inteligencia son unas características puramente humanas, pero que nadie colocó ahí deliberadamente, sino que surgió de alguna forma, se podría decir que la IA podría alcanzar alguna vez ese punto, también de forma espontánea. Quizá el problema es que esa consciencia debería surgir a partir de instintos animales, como el de supervivencia, del cual las máquinas carecen. Sin embargo, si se les programa para protegerse a sí mismas, aunque no sepan por qué deben hacerlo, ¿no dejaría eso de ser un instinto? Se protegen, pero no son totalmente conscientes de por qué. Poco a poco, y reconstruyendo el proceso de evolución humano, se podría colocar a las máquinas de IA en el punto adecuado en el cual podría surgir ese proceso de adquisición de la consciencia.

Ahora mismo parece inviable, pero si uno se para a pensar no parece tan difícil como aparenta al principio.
 
ruben_vlc rebuznó:
La clave está en que los robots no aprendan a "reproducirse", deben ser incapaces de crear a un semejante desde la nada, deben estar programados para pensar que sólo el hombre puede crearlos.

de hecho entre un virus biológico y un gusano informático no hay apenas diferencia: infectan la célula/host, se reproducen masivamente (inyección cadena ADN/reenvio masivo a otros hosts) y asi hasta que son eliminados o la célula muere (formateo)

en ese sentido se podria decir que se ha logrado simular "vida", pero la comunidad cientifica no se pone de acuerdo en si un virus es vida o no...

Murray rebuznó:
Lo que no entiendo es por qué pensáis que es imposible que la IA algún día alcance ese nivel.

creo que mas bien lo que se dice es que tal y como se está enfocando ahora no es posible, y estamos debatiendo (o mongueando, dificil de decir) sobre alternativas que SI condujeran a eso (o al menos señalando las carencias de lo presente, que ya es algo)
 
ruben_vlc rebuznó:
La clave está en que los robots no aprendan a "reproducirse", deben ser incapaces de crear a un semejante desde la nada, deben estar programados para pensar que sólo el hombre puede crearlos.

de hecho entre un virus biológico y un gusano informático no hay apenas diferencia: infectan la célula/host, se reproducen masivamente (inyección cadena ADN/reenvio masivo a otros hosts) y asi hasta que son eliminados o la célula muere (formateo)

en ese sentido se podria decir que se ha logrado simular "vida", pero la comunidad cientifica no se pone de acuerdo en si un virus es vida o no...

Murray rebuznó:
Lo que no entiendo es por qué pensáis que es imposible que la IA algún día alcance ese nivel.

creo que mas bien lo que se dice es que tal y como se está enfocando ahora no es posible, y estamos debatiendo (o mongueando, dificil de decir) sobre alternativas que SI condujeran a eso (o al menos señalando las carencias de lo presente, que ya es algo)
 
Mas que muerto rebuznó:
ruben_vlc rebuznó:
La clave está en que los robots no aprendan a "reproducirse", deben ser incapaces de crear a un semejante desde la nada, deben estar programados para pensar que sólo el hombre puede crearlos.

de hecho entre un virus biológico y un gusano informático no hay apenas diferencia: infectan la célula/host, se reproducen masivamente (inyección cadena ADN/reenvio masivo a otros hosts) y asi hasta que son eliminados o la célula muere (formateo)


Ten en cuenta que hoy en día aún es difícl determinar si los virus son seres vivos o no, no se sabe si son el primer paso de la vida o un bichejo involucionado.
 
Mas que muerto rebuznó:
ruben_vlc rebuznó:
La clave está en que los robots no aprendan a "reproducirse", deben ser incapaces de crear a un semejante desde la nada, deben estar programados para pensar que sólo el hombre puede crearlos.

de hecho entre un virus biológico y un gusano informático no hay apenas diferencia: infectan la célula/host, se reproducen masivamente (inyección cadena ADN/reenvio masivo a otros hosts) y asi hasta que son eliminados o la célula muere (formateo)


Ten en cuenta que hoy en día aún es difícl determinar si los virus son seres vivos o no, no se sabe si son el primer paso de la vida o un bichejo involucionado.
 
La inteligencia humana se da sobre un soporte fisico: el cerebro, por que no iba a poder ser copiado en otro soporte fisico fabricado por humanos?

Que hoy en dia parezca un objetivo lejano crear una maquina inteligente es mas un problema de nuestra limitada capacidad para esclarecer nuestros propios mecanismos que de otra cosa.

Lo ironico del asunto es que las actividades que a los humanos nos parecen mas complicadas como resolver ecuaciones,jugar al ajedrez,etc son facilmente realizables por una maquina, y sin embargo, cosas como caminar o atrapar una pelota han tardado mas tiempo en ser imitadas.
 
La inteligencia humana se da sobre un soporte fisico: el cerebro, por que no iba a poder ser copiado en otro soporte fisico fabricado por humanos?

Que hoy en dia parezca un objetivo lejano crear una maquina inteligente es mas un problema de nuestra limitada capacidad para esclarecer nuestros propios mecanismos que de otra cosa.

Lo ironico del asunto es que las actividades que a los humanos nos parecen mas complicadas como resolver ecuaciones,jugar al ajedrez,etc son facilmente realizables por una maquina, y sin embargo, cosas como caminar o atrapar una pelota han tardado mas tiempo en ser imitadas.
 
Supongo que el problema es la intuición.

Por ejemplo, en el ajedrez, bien, una maquina puede hacer millones de jugadas por segundo, pero el ser humano es que, con su intución descarta automaticamente millones de jugadas porque sabe que no van a llegar a ningún sitio. La maquina necesita hacer el arbol de juego para saber que esa jugada no vale para nada.

Sí, la máquina realiza en un segundo operaciones matematicas que un humano no sería capaz de hacer en toda su vida, en cambio nosotros, nos pondremos delante de un papel a demostrar un teorema matemático y dar una solución nueva y original.

Pensando, ¡joder!, pensarlo, nosotros se puede decir que cuando nos encontramos ante un problema, comenzamos a pensar, ¿ok?. Es un estado, ¿pero que estamos haciendo ahí? ¿Realmente tenemos un algoritmo que ejecutamos? Porque no se basa en sospesar simplemente todas las posibilidades, ademas hay algo que nos dice, "esto no tiene pinta de estar bien", "en cambio este es hasta bonito", ¿como meter eso en una máquina?.

Sin duda ese es otro de los problemas de la IA.
 
Supongo que el problema es la intuición.

Por ejemplo, en el ajedrez, bien, una maquina puede hacer millones de jugadas por segundo, pero el ser humano es que, con su intución descarta automaticamente millones de jugadas porque sabe que no van a llegar a ningún sitio. La maquina necesita hacer el arbol de juego para saber que esa jugada no vale para nada.

Sí, la máquina realiza en un segundo operaciones matematicas que un humano no sería capaz de hacer en toda su vida, en cambio nosotros, nos pondremos delante de un papel a demostrar un teorema matemático y dar una solución nueva y original.

Pensando, ¡joder!, pensarlo, nosotros se puede decir que cuando nos encontramos ante un problema, comenzamos a pensar, ¿ok?. Es un estado, ¿pero que estamos haciendo ahí? ¿Realmente tenemos un algoritmo que ejecutamos? Porque no se basa en sospesar simplemente todas las posibilidades, ademas hay algo que nos dice, "esto no tiene pinta de estar bien", "en cambio este es hasta bonito", ¿como meter eso en una máquina?.

Sin duda ese es otro de los problemas de la IA.
 
Cocineros Cachondos III en un hilo cerrado rebuznó:
Hola personas

No soy muy dado a escribir post debido a mi total falta de habilidad a la hora de poner ideas en orden de manera escrita, pero una pregunta asalta mi neurona:

En el caso que la evolución tecnologica continue al ritmo de aceleración permamente que vivimos actualmente ¿cuando creeis que llegará el momento en el cual se cree una inteligencia ajena a la humana?

El actual desarrollo de internet está permitiendo que innumerables ordenadores esten en contacto permamente intercambiando información, como si de una gran red neuronal fuera. Es decir, tenemos creada ya la estructura "física" de lo que podría ser un cerebro. Además, cada día se avanza en la creación de nuevas tecnologías que hacen que las computadoras analicen datos con mayor velocidad ¿Llegará el punto en el cual toda esa "red" sea consciente de si misma? y luego, ¿cual será el papel que desenpeñemos nosotros?, ya que ahora las máquinas son nuestros "esclavos" pero en este mundo solo triunfa el más fuerte y ellos lo serán bastante más que nosotros.

¿Creeis en un futuro al estilo de la novela "Yo, robot" de Isaac Assimov, en el cual los robots se ciñen a unas reglas que los mantienen en equilibrio con los humanos o por el contrario tambien caeran en la debilidad humana como en Blade Runner?. Sé que en la segunda son "suprahumanos" de base biológica, pero tambien los cuento como inteligencias ajenas a nosotros, ya que puede ser una de las vias de desarrollo.

Si Dios nos creo a su imagen y semejanza, ¿haremos nosotros lo mismo con nuestros defectos o por el contrario será una inteligencia más equilibrada y no tan dependiente de la necesidad?

Aunque, puede que esta I.A. nos acabe complementando haciendonos una especie mejor y más equilibrada.

¿que pensais?

Proviene de un hilo duplicado.
 
Existen dos maneras de hacer las cosas en IA:

1- Intentar comprender como funciona nuestro cerebro (o cualquier otro órgano, incluso la evolución humana) e imitar su comportamiento (ej. redes neuronales, algoritmos genéticos).

2-No nos importa el como, si no que de los mismo resultados (ej. Transformada de Hough[Una fórmula matemática] para reconocer una imagen).

Si usáramos el punto 1 sería una especie de clon cibernético de los humanos.
Mediante el punto 2 jugaríamos a ser dioses y crearíamos una nueva forma de vida ideada por nosotros.

No sé por que rama se conseguirá los deseos que formuláis, pero yo creo que andamos muy lejos de todo eso, dudo que una máquina tenga conciencia algún día.

Sin embargo si que se conseguirá:
-Robots que se reproducen.
-Autogeneración de conocimiento heurística (las heurísticas son la "pequeña intuición" que comentaba alguien).
-Reconocimiento de imágenes.
Y muchas cosas más que comentáis.

Para añadir algo nuevo: Quizá el error de que casi no se haya avanzado mucho o que estemos en un estado tan primitivo es el enfoque ingenieril que se le ha dado a la informática, debería verse desde un enfoque científico si se quiere avanzar algo en IA.

La IA no creo que sirva nunca para crear una inteligencia similar a la humana, si no para crear HERRAMIENTAS útiles al ser humano, quizá esto le permita avanzar en genética que creo que es por donde andan los tiros. La IA no es el objetivo si no la herramienta.

Un saludo.
 
En una de las interpretaciones de 2001, se dice que la ultima herramienta del ser humano es la IA, cuando se vuelva como nosotros ya el ser humano no necesitará herramientas y pasará al siguiente nivel, como Bowman hizo.
 
está claro que la inteligencia artificial en estos momentos está en clara desventaja con la nuestra(la humana) pero estoy convencido que en menos de 100 años habran robots,aunque creo que ya no se llamaran así,con una inteligencia no solo similar a la nuestra sinó superior.

Esto será así porque el cerebro humano está siendo descifrado por los científicos.Si, eso es, el producto más "moderno" de la evolución y mas misterioso esta siendo comprendido finalmente.

Una vez que se conozcan todos los procesos,mecanismos y funcionamiento de todas las piezas de este puzzle humano; serán aplicadas las técnicas necesarias para desarrollar un cerebro artificial con las mismas caracteristicas que un homólogo humano.
Y ya digo eso será en menos de 100 años.

Amén.
 
Según mi opinión, la IA está muy lejos de convertirse en lo que la Ciencia Ficción nos ha mostrado. La IA actual trata de resolver complejos problemas de decisión en un tiempo relativamente corto, que a los humanos nos costaría mucho tiempo resolver.

En cuanto a los algoritmos que se usan, básicamente se pueden dividir en 3 grupos:

- Problemas basados en busqueda: se contruye un arbol de estados posibles, con una función heuristica asociada a cada nodo del árbol, siendo elegido el de mayor valor de está función, como muchas veces el arbol es enorme (ajedrez), se establece una profundidad máxima para mirar. Aquí entrarían muchos algoritmos dependientes del problema; A*, Mejor-Primero, Poda Alpha-Beta (variante de minimax), búsqueda online, etc..
- Sistemas expertos: Se estable un conjunto de reglas, basados en lógica proposicional para la resolución de los problemas, tiene el problema de la incertidumbre (no todas las reglas tienen porque ser cierta), por eso se crea la lógica difusa y los modelos probabílisticos (redes bayesanas, cadenas de markov, etc...)
-Redes Neuronales y similares: Se utilizan para problemas en los que el como nos importa poco, y de hecho no sabríamos decir como somos capaces nosotros de resolver; por ejemplo, el reconocimiento facial (como somos capaces de al ver una cara, asociarla a un nombre), o reconocimiento de carácteres, etc... Basan su funcionamiento en el modelo de neurona humana, mediante la cual se crea una red de neuronas para la cual a partir de un juego de entrenamiento de entradas y salidas, mediante el algoritmo de retropropagación se calculan los pesos de las neuronas, de tal modo que la red sea capaz de reproducir las salidas para las entradas entrenadas(o similares).

Como veís muy lejos de un robot que pueda tener emociones como en la ciencia ficción, sin embargo, no por ello es una mierda. Todo lo contrario la IA es sin lugar a dudas una de las ramas más apasionante de la Ciencia de la Computación, y se están llegando a resolver problemas que sin ella no se podría. A parte a día de hoy, la IA artificial se utiliza para todo, por ejemplo, detección proactiva de virus (no basada en virus conocidos), detección de spam mediante cadenas de markov, detección de intrusiones, aplicaciones de inteligencia ambiental, para hacer las casas del futuro, y un largo etc..
 
Arriba Pie