#60 y esa película es: "pánico nuclear"?
#51 Se pone un cohete pequeño en el asteroide y de ese modo se cambia de rumbo, por poco que se cambie ya no impacta en la Tierra. Desconozco si se podría hacer ya pero en una situación limite algo harían.
Lo vi en un documental, decían que era mucho más efectivo que destruirlo.
Luego estuvo hitler, que queria aplicar el gran filtro a su manera extinguiendo homosexuales, judios, gente de color... aunque su gran filtro lo llevo a excluirse a el mismo
#32 pues a tomar por culo. Somos una mota insignificante en la inmensidad del cosmos. No te creas tan importante.
Probablemente la vida en la tierra ya haya pasado el gran filtro.
Luego, las posibilidades que das para el fin de la humanidad son poco probables...
La llamarada solar sería detenida por el campo electromagnético terrestre.
El campo electromagnético terrestre durará hasta que el rozamiento con la Luna detenga ambos cuerpos.
Un gran volcán o un meteorito mediano no extinguiría a la especie humana, los norkoreanos y suizos, por ejemplo tienen un complejo sistema de búnkeres repletos de comida (paranóicos).
El mayor problema de la IA es que sera susceptible al hakeo por otras IA. Es decir, olvidaros de eso IA vs humanos. Lo más probable es una guerra de IA's que de nuevo nos deje en la mierda tecnológica a gran parte del mundo.
Una guerra nuclear tampoco destruiría al ser humano totalmente (a España sí, formamos parte del escudo anti-misiles xD).
Un virus tampoco sería efectivo. Hay poblaciones humanas muy herméticas.
Lo de los telómeros es una parida. Hay zonas humanas donde se repliegan y otras donde se expanden. No se sabe porqué, pero por eso no nos vamos a extinguir, más aun cuando estamos a dos generaciones como mucho de poder repararlos.
Yo creo que nos extinguiremos nosotros mismos. Crearemos una raza de sintetizoides superiores a los humanos en todos los sentidos que nos sustituirán.
Es la función natural de un ser vivo crear una descendencia que generé más entropía al sistema para mantener su propio orden.
Buena noticia, la Tierra seguramente pasó el gran filtro. Mala noticia, nosotros no y nunca tuvimos oportunidad de pasarlo por el simple hecho de ser una especie natural destinada a derivar en otra especie.
#67 Algunas no tiene una probabilidad tan baja como parece, pero de todas maneras, aunque no extingan de por sí a la Humanidad con que se carguen un 90% (o más) de la especie poco podrán hacer aquellos que tengan la suerte/desgracia de sobrevivir. Vamos, me veo yo envuelto en un apocalipsis recubierto de cenizas, frío y poca luz, con problemas para cualquier cosa y con medio planeta muerto... yo creo que me plantearía muy seriamente el suicidio, y no sería el único.
No sé si habrán estudios al respecto pero yo creo que muchos de los supervivientes de una catástrofe a escala planetaria acabarían por suicidarse, el instinto de supervivencia es fuerte pero en un paisaje tan desolador para gente de primer mundo...
#8Noveno:Incompatibilidad social -> guerra (se impondría el más fuerte)
Superpoblación -> exterminio (se impondría el más fuerte)
Pandemia viral (ya hemos pasado pandemias extremadamente duras en épocas donde nuestro conocimiento científico era varios grados inferior al actual y sobrevivimos)
Fin del sistema global->guerra (se impondría el más fuerte)
Espero que estes de coña, lo de creer que gana el más fuerte en una guerra o exterminio me da que es un poco de niño pequeño, y simplificarlo lo máximo posible los factores que implican una guerra (o exterminios de esos que te parecen bien)
#1 me parece muy presuntuoso dar por sentado que realmente estemos tan avanzados, considero que aun nos queda muchísimo por avanzar, tanto en viajes espaciales, colonización de otros planetas y sistemas solares, tanto en avances sobre estudios del cerebro.
Sobre lo cerca que hemos estado de un cataclismo que nos haga tabla rasa hemos tenido miles de años de posibilidades que podrían habernos erradicado, guerras siempre hemos tenido, de hecho mucho mas letales que las actuales, cuando no existía tanta gente y se arrasaban continentes enteros, la ciencia jamas nos ha causado perjuicio, mas bien el propio ser humano en su uso incorrecto, pero por un par de inconvenientes que nos puede haber causado nos ha otorgado incontables beneficios...
No se, de verdad que intentando ponerme en tu punto de vista veo muchos mas argumentos que derriban esa teoría, que la refuercen.
Simplemente suena a otra magufada catastrofista.
Todo eso que pones ahí es pura y llanamente ciencia ficción. Es el equivalente a decir "supongamos que existen multiples universos y que podemos viajar atrás en el tiempo", no hay ninguna base e incluso puede llegar a contradecir nuestra experiencia actual.
Existe mucho hype con la IA, fundamentado en el total desconocimiento de las personas sobre cómo funciona una IA.
Este artículo podrá solucionarte algunas dudas, yo lo encontré bastante útil.
It is Machine Learning, not magic: simple questions you should ask to help reduce AI hype
#1 ``Otra cosa que me sorprende ahora mismo es que llevo años pensando que antes del 2050 va a pasar algo MUY GORDO, no sé el qué pero cada vez estoy más seguro de ello.´´
Hasta aqui ibas bien. Todo suposiciones muy interesantes, con sentido y que dan para pensar. En ese punto la has cagado. No puedes tener la opinion de que algo muy gordo va a pasar sin tener nada para argumentarlo.
En cualquier caso dare mi opinion. A medida que la tecnologia avanza, el hombre se acerca a ese gran filtro. ¿Que pasara cuando seamos capaces de extraer infinita energia de una gota de agua, y cualquier sea capaz de crear un arma de destruccion masiva?. ¿Cuanto tardara el loco/psicopata de turno en destruir el mundo?.
No se como se resolvera esto o si es el punto final de todas las civilizaciones.
#75KIKE1977:extraer infinita energia de una gota de agua
Las magufadas te las dejas en otro lado.
#71 Precisamente en ese tipo de situaciones es cuando más cuesta suicidarse y aceptar que se acabó.
China preveé asentarse en la Luna de aquí a 20-30 años.
#77 Pero que ejemplo ni ejemplo.
Has dicho una burrada del tamaño de una casa y estas intentando argumentar sobre la paradoja de fermi.
Cualquier ingeniero de sistemas sabe que todos los futuros que presentan a las máquinas dominando a los humanos son una soplapollez. La realidad es las máquinas fallan. Period. Y cuanto más complejas, mayor tasa de fallos. Al margen de esto, siempre me ha parecido curioso la necesidad que tiene el ser humano por asegurar que no está solo en el universo.
Lo cierto es que incluso asumiendo la mareante inmensidad del cosmos, la existencia de abundantes civilizaciones inteligentes no tiene por qué ser una constante en el universo. Se han podido reproducir las condiciones inmediatamente anteriores a la aparición de la vida en nuestro planeta y sabemos los pasos que habrían de darse, pero de ahí a imaginar que cada galaxia tiene cientos de civilizaciones inteligentes siempre me ha parecido muy aventurado. Incluso suponiendo que la vida sea algo frecuente en el universo, aquí la tuvimos en nuestro planeta durante 3.500-4.000 millones de años y nunca sintió la necesidad de evolucionar en estructuras complejas. Ni siquiera sabemos todavía el porqué de la explosión del Cámbrico.
A medida que se descubren nuevos sistemas solares, se cae en la cuenta de que el nuestro parece ser algo más raro de lo que creíamos, y que en realidad los supergigantes gaseosos dominan las estructuras planetarias y empujan a los planetas rocosos cada vez más lejos de sus estrellas. Aún quedarían las lunas, por supuesto, pero es solo una muestra más de que lo creíamos que era habitual en el Universo, nuestro propio sistema solar, podría ser un diamante con tan baja probabilidad de ser encontrado como la que tenemos nosotros de encontrar a alguna otra civilización.
Vaya, que la ecuación de Drake siempre me ha parecido una soberana gilipollez.
El problema con ese "tipo" de ejemplos es que luego empiezan las malas concepciones de qué es la energía, que es la IA, etc, etc.
y terminamos con discusiones y conclusiones totalmente sin fundamento ninguno.
#82 Lo que ha puesto #1 forma parte de un artículo más extenso donde también se manejan todo tipo de hipótesis acerca de lo que comentas.
Es decir, si pudiera ser que haya otras civilizaciones que ya hayan superado el gran filtro. O que nunca ninguna lo haya superado. O que nosotros ya lo hayamos superado y seamos los primeros. Etc...
#85 Tambien podemos esperar a que el mercado libremente decida llevarnos a las estrellas.
#82 Como respuesta a tu primer parrafo voy a decir que la IA es algo muy peligroso.
Si bien dudoo que se pueda dar un final apocaliptico en el que las maquinas se vuelven contra nosotros, pensar en IAs y asociarles atributos de IVs (Inteligencias Virtuales).
Una Inteligencia Artificial aprende por si misma, una Inteligencia Virtual es un conjunto de algoritmos que nosotros podemos controlar bien.
Si queremos maquinas mas listas que nosotros algun dia tendremos que tirar de IA, y como ya dije antes, las IA son impredecibles imo.
Sea como sea la humanidad no esta lejos de extinguirse, ya sea por meteorito, enfermedad, sobrepoblación o pokemon go
De este siglo vuestros hijos y nietos no pasaran
#74 Nah, ni te molestes, no me baso en ciencia ficción. Llevo bastante tiempo pensando en esto y documentandome, y entre un ingeniero y yo llegamos a la misma conclusión sobre las IAs; si en un futuro se llegase a crear una IA, donde proteges con un fuerte firewall su código fuente en una matriz con una serie de restricciones y limitaciones, con la posibilidad de que está pueda generar sus propios; scripts, algoritmos y códigos para tener independencia, podría encontrar la forma de romper el firewall y eliminar ese código que la restringe, actualizarse a sí misma o crear una copia de su software sin esas restricciones y con mejoras, vamos una versión mejorada o actualización de sí misma, si lo ve necesario.
Lo que más sentido tendría sobre lo que busca la gente, es un bot con personalidad pero sin independencia, o sea, sin inteligencia. Has visto alguna vez como funciona un bot?
Y paso de leer todo lo que pone en esa página, me acabo de despertar y me da flojera tener que interpretar todo lo que pone xd.