-Superpoblación
-Mayor parte de la superficie terrestre vacía y sobreproducción de bienes.
Choose one.
-Superpoblación
-Mayor parte de la superficie terrestre vacía y sobreproducción de bienes.
Choose one.
Alguien tiene más información de estos temas? Me fascinan bastante, aunque este ya lo conocía de hace bastante tiempo.
#92 hubo un hilo parecido a este hace tiempo, yo pedí si alguien me podía recomendar un libro o algo sobre el tema pero nadie me dijo nada XD
#1juliano6010:llevo años pensando que antes del 2050 va a pasar algo MUY GORDO, no sé el qué pero cada vez estoy más seguro de ello.
Deja de jugar a Mass Effect.
#89 ¿Por qué iba querer una IA matar humanos?
Por cierto eso de una IA que generen sus propios algoritmos de la nada... Actualmente está casi confirmado que no podrán hacer eso, carecerán de pensamiento abstracto.
#96 A mi lo de la IA que pierde el control me suena a película. Me preocuparía más por el reemplazo casi absoluto de trabajadores por máquinas.
#83 HAce mil años un loco podia coger una espada y matar a 5 antes de que lo matasen a el. Hoy puedes coger un camion o poner una bomba y matar a cientos. ¿mejor?
#67 No se porque parece improbable una guerra entre IAs. Sin son similares, probablemente sean más capaces de llegar a un acuerdo que nuestros. Si tienen diferentes capacidades (a nivel de recursos que pueden acceder), no habría demasiado problema en que una absorba a la otra.
Y sobre el apocalipsis nuclear, el problema no viene en morirse a bombazos (que por cierto, tenemos suficientes para extinguir la vida en la tierra), sino el invierno nuclear que viene después que se cargaría la mayoría de la vida en la tierra. No creo que como especie estuviéramos preparados para sobrevivir a eso.
#86 #90 Mira que sabéis que no apoyo el socialismo en el mundo actual, pero un sistema de meritocracia o libre mercado no funcionaría para una civilización de ese tipo. Tenéis que olvidaros de cosas tipo Star Trek o Star Wars al pensar en cosas superiores al Tipo I.
Una mente colmena es lo más probable, por lo que sería algún forma de socialismo. Donde lo importante sea la colectividad y no el individuo. Eso, o un individuo supermasivo. Algo parecido al planeta de Solaris.
#82 La cosa es que algo mal programado en un programa que evoluciona no tiene nada que ver con algo en un circuito cerrado.
#92 Depende de que tema en concreto quieras. Porque aquí hay bastantes temas. Sobre las AIs, puedes leer cosas de Raymond Kurzweil, el loco de Google que está dedicando su vida a crearlas.
#100 Un invierno nuclear crearía una pequeña extinción , pero nad a que ver con las grandes extinciones de la historia planetaria.
#96 una máquina no querría matar humanos pero si que habría humanos que programarían máquinas para exterminarnos a todos menos a él. El filtro dudo que sea producido por una mákina, será por el ser humano o desastre natural diría yo.
#100 Te explico, a las IA las programarán los humanos para competir contra otras IA. Como comprenderás eso puede irse de las manos.
No, no tenemos capacidad para acabar con la vida en la tierra, ni si quiera con la humana. Se estima que moriría entre el 87% y el 94% de la humanidad la mayoría por el invierno nuclear.
Y si en un futuro se llegase a inventar una IA capaz de predecir el número del euromillones ya sería la hostia. Si por pedir que no sea.
Sí claro, habrá tecnología para tener una gominola (que podrás comprar en tus frutos secos galácticos) que emita más energía que la desprendida por la fusión de dos agujeros negros. Otro igual, si por pedir que no sea xD.
#106 El problema es que estan llamando IA a lo que no es IA. Ejecutar un algoritmo no es inteligencia.
Asi es como yo lo entiendo.
Totalmente de acuerdo. En el artículo que he posteado en #74 hace mucho incapié en ello, en cuanto se conoce cómo funciona a lo que se llama "IA", ya deja de ser I y pasa a ser sólo A, y cuando ya entiendes bien en profundidad, ya termina siendo una calculadora de andar por casa xD.
Pero es lo normal, cuando uno no sabe cómo resolver un problema y ve que alguien sabe cómo hacerlo, pues nos impresiona. Luego cuando nos dan la solución (ese momento de iluminación) pasas a un estado de.. si tampoco era para tanto (claro, una vez lo entiendes xD). Pero lo importante de entenderlo es que sabes dónde están las limitaciones por ejemplo.
Tenemos una discusión sobre esto en el foro de ciencia Ordenador gana por primera vez a un experto del GO.
#72 No, no estoy de coña. Las guerras no son más que nuestra manera más salvaje y primitiva de solucionar los problemas, es decir, actuar según la ley de la jungla: el más fuerte sobrevive. El que gana la guerra es por definición el más fuerte, ya que la ha ganado.
#105 Pero el filtro se refiere a un problema que una determinada especie tiene que afrontar, según tengo entendido, sobretodo en una fase de desarrollo avanzada, en este caso yo creo que estarías equivocado, como mucho serían los problemas que hubieramos tenido que afrontar sin el fuego (como el frio, los depredadores, etc)
#67
"[...] Es la función natural de un ser vivo crear una descendencia que generé más entropía al sistema para mantener su propio orden.".
No lo entiendo.
Bajo mi opinión #1 el gran filtro será el momento que lleguemos a desarrollar ASI (Super Inteligencia) eso sumado al transhumanismo será el punto de inflexión para nosotros.
Tened en cuenta que el desarrollo tecnológico es exponencial, en lo que llevamos de s XXI ya hemos avanzado mas que todo el s.XX así que no sería muy descabellado decir que dentro de 40 años quizás ni reconozcamos el mundo. Por el momento se especula que sobre 2050 podríamos ya tener AGI ( Inteligencia artificial al nivel humano)
Por cierto Ya habéis puesto los articulos de "Wait but Why" de rigor ? Que justamente es la fuente de #1
La paradoja de Ferni:
http://waitbutwhy.com/2014/05/fermi-paradox.html
Inteligencia Artificial.
http://waitbutwhy.com/2015/01/artificial-intelligence-revolution-1.html
http://waitbutwhy.com/2015/01/artificial-intelligence-revolution-2.html
#42 Totalmente de acuerdo. Tendría que ocurrir algo que nos llevase al borde y la muerte nos soplase en la nuca.
#115 Venga hombre, no se puede controlar de alguna manera las IA?. Desarrollando de algún modo las leyes de Asimov, o poniendo medidas de seguirdad? o en sectores críticos como un silo de lanzamiento de misiles nucleares que los procedimientos se hagan a mano. Es que ponéis una rebelión de las IA como algo inevitable.
Yo francamente no veo que nos puede extinguir a menos que sea una gran pandemia o algo así. (asteroides descartados también)
#82 Los cálculos con las variables más conservadores en la ecuación de drake ya arrojan cientos de miles de planetas en los que se ha podido dar las condiciones en las que nosotros conocemos que se puede desarrollar la vida y de esos cálculos, en cientos/miles de esos planetas se babrían desarrollado civilizaciones inteligentes. Esto es solo usando los datos que tenemos de el universo observable que se calcula que es un 1% de el universo total en expansión xD
Es estadisticamente imposible que el ser humano sea la única civilización desarrollada del universo y de serlo ya podemos hablar cuestiones religiosas.
A partir de ahí toca especular por que, que sepamos, no tenemos ni una sola prueba de la existencia de estas civilizaciones, algunas presumiblemente tan avanzadas que no seriamos capaces ni de comrenderlas....pero estas teorías también se tratan con bastante lógica en la paradoja de fermi.
#96Fox-ES:Por qué iba querer una IA matar humanos?
Por que lo mas logico es que una superinteligencia llegase a la conclusion de que somos un cancer para el planeta tierra.
#118 A mi personalmente las que mas me gustan es o bien que estamos alejados de donde están los aliens y que nuestra zona es tranquila o que estamos como en una reserva de especies no desarrolladas y nos dejan en paz.
Son nuestras mejores posibilidades