Big data & toma de decisiones

Ulmo

#30 Sí, el ejemplo de tu tío, un ejemplo sin fisuras. Da la casualidad que hice mi doctorado en el centro nacional de supercomputacion (www.bsc.es) y tiene un departament de Earth Science puntero a nivel mundial en modelos meteorológicos:

Ni en sus mejores días tu tío hace mejores predicciones.

1 respuesta
T0X1C1TY_

#31 y aún siendo tan docto en el tema no te das cuenta de las limitaciones de la herramienta?

Sí, yo creo que es el modelo perfecto para llevar un gobierno.

A un tonto con un martillo, todo lo parece un clavo.

2 respuestas
-Shaydund-

#26

La mejor forma de abordar el "big data" es con machine learning.

La estadística convencional tiene su nicho en "ciertos tipos de estudios", pero el machine learning es mucho más potente en otros.

La biología, por ejemplo, está teniendo un gran cambio gracias a la "biología computacional".
La estadística clásica no está preparada para manejar "infinitud" de variables, ni "infinitud" de casos.

1 respuesta
Huk

nah edito que pereza xd viva las maquinitas

-Shaydund-

#32

Está claro que tiene lmitaciones... muchas, por eso a nadie se le pasaría por la cabeza pensar que puede "gobernar".

Ahora bien, esto no quita que el machine learning supere a los métodos predictivos previos frecuentemente, especialmente si cuenta con datos masivos.

La cuestión no es buscar la verdad en el big data y ML (eso sería "overfitting" xD) , sino aprender el comportamiento general y por lo tanto disminuir la incertidumbre.
El problema de sus predicciones no está en las matemáticas, sino en toda la información de la que no disponen o cuando cambia el "escenario" (algo que le encanta a nuestros políticos, por ejemplo xD)

Atrus

#33 Supongo que también tiene una parte importante en el análisis de datos. En la parte que más he tocado en el trabajo de tecnología Big Data ha sido la parte de la carga (con hadoop) y la transformación (con spark). El análisis y presentación apenas he visto, por eso decía que lo veo más al Big Data como el alimento perfecto para los sistemas de aprendizaje automático.

Aunque ya hace algunos años que no toco el tema y habrá avanzado por nuevos derroteros.

Lo de la biología me da respeto, al fin y al cabo son predicciones, pero bueno los modelos van mejorando.

1 respuesta
mrbeard

#21 Nadie entendería lo que fuese a escribir xd

Gustioz

No porque sería facha fascista, tomaría decisiones
Impopulares para el actual régimen.

2 respuestas
T0X1C1TY_

#38 https://www.google.com/amp/s/www.lavanguardia.com/tecnologia/20211114/7856262/inteligencia-artificial-entrenada-etica-vuelve-racista-misogina.amp.html

Nada más lejos de la realidad.

La política es sentimental, no racional.

-Shaydund-

#36
Concuerdo con lo que tú dices.
El big data es la información en bruto y luego hay que trabajarla porque al final aunque te suministren datos hay que hacer análisis exploratorio y transformación / adecuación de variables, imputación de datos, eliminación de outliers... y sobre todo tener claro los datos que quieres / necesitas y el proyecto de investigación.

Sobre la biología...es que claro,cuando tu haces una comparación comparando 1000 genes por ejemplo, para encontrar una significación estadística "no viciada por la probabilidad" tendrías que aplicar bonferroni (o Tuckey).
Si haces bonferroni, pasas de encontrar significación con una p < 0.05 a necesitar una p < 0.00005.
Vamos, que se vuelve "excesivamente" exigente el test.

#38

El problema es la base de datos con la que lo entrenas.
Si tú entrenas con las bases de datos de youtube o twitter donde la gente se dice de todo...pues al final tendrás una IA con comentarios racistas / homofobos / machistas / whatever...

Igual que si le entrenas leyendo únicamente textos marxistas, que saldrá socialista, internacionalista y todo lo que quieras.

Ahora bien, a ver si te crees que tus héroes políticos no tenían defectos (además de ser casi todos burgueses XD)

Hipnos

Mi caca es data-driven

Ulmo

#32 Primero, no he dicho que sea doctor en ML, segundo, evidentemente no le daría el gobierno a una IA actual.

Dicho esto, para casos concretos con problemas bien definidos aciertan mucho más que una persona.

1 2 respuestas
T0X1C1TY_

#42 y cómo de bien definido está el gobierno de una sociedad en permanente evolución?

Yo trabajo con algoritmos que predicen cuánto pan van a comprar, eso es algo sencillito y lo único que hace es decir que se venden más fartons en verano y más hogaza en invierno. Es un escenario mucho más sencillo y aún así SIEMPRE son sólo para dar un dato inicial, no para hacer eñ trabajo de la gente.

Te hablo de pan. Que es algo más sencillo

c0b4c
#25-Shaydund-:

Los algoritmos pueden bajar la incertidumbre en la toma de decisiones, pero no la eliminan.

No sé a qué tipo de algoritmos te refieres. De todas formas, supongamos que tenemos un modelo matemático representando algún fenómeno con una serie de parámetros. Paradójicamente, el resultado del modelo se vuelve más preciso conforme incrementamos la incertidumbre en los parámetros. Esto es un artefacto del teorema central del límite, y contradice directamente lo que acabas de decir. "Hay más incertidumbres que probabilidades" me dijo un profesor. La teoría de la probabilidad no sirve para modelar todo tipo de incertidumbres por un motivo muy sencillo: no es capaz de distinguir entre la interpretación clásica y frecuentista de la estadística.

El ML y la IA están enfangados en el marco de la teoría de la probabilidad. Habrá que ir buscando una alternativa...

2 respuestas
Colgajo

Os voy a enseñar la mejor decisión data driven cuando queréis elegir un libro/peli/serie para ver y estáis atascados: mirar el reloj, si es los minutos son pares la empiezas, si es impar te buscas otra.

1
-Shaydund-

#44

  • No me refiero a ningún algoritmo en concreto, ya que ningún algoritmo es perfecto, sino que según el conjunto de datos a veces hay algoritmos que funcionan mejor que otros. (No free lunch theory).

  • Fíjate que lo que comento es que "pueden" disminuir el incertidumbre. No digo que lo hagan siempre.

  • La realidad, no obstante, es que se ha disparado la precisión / rapidez en muchas aspectos del día a día y es gracias a la utilización de ML. Ahora bien, hay que entender que no son perfectos, que arrastran sesgos y que una parte importante es el tratamiento de los datos. Pero vamos, que es lo mismo que la estadística clásica...si los datos son malos o los tratas mal acabarás diciendo mentiras xD

  • No entiendo muy bien lo de "aumentar la incertidumbre en los parámetros".

1 respuesta
c0b4c
#46-Shaydund-:

No entiendo muy bien lo de "aumentar la incertidumbre en los parámetros".

Explicándolo de otra forma: uno podría presuponer que, en un argumento lógico, al estar menos seguros de las premisas estaremos menos seguros de la conclusión. Esto tendría sentido y es como debería funcionar. Paradójicamente lo que ocurre con la teoría de la probabilidad, como consecuencia del teorema central del límite, es que la certeza sobre la conclusión incrementa conforme aumentamos la incertidumbre en nuestras premisas. Obviamente algunos dirán que esto sólo ocurre en determinadas circunstancias; sin embargo, considero que la mera existencia de este artefacto es condición suficiente para huir de la teoría de la probabilidad en escenarios donde las incertidumbres y las consecuencias son grandes e importantes.

https://royalsocietypublishing.org/doi/epdf/10.1098/rspa.2018.0565 este es un buen paper

Y esto simplemente siendo críticos con la asignacion de probabilidades a eventos. Podríamos ponernos quisquillosos y también cuestionarnos algunas de las suposiciones que se hacen constantemente, como la independencia. Modelar la dependencia entre eventos es tremendamente complejo (matemática y computacionalmente), por lo que generalmente se suele asumir que los eventos son independientes. Sin embargo, esta suposición puede tener consecuencias todavía más graves que la asignación de la probabilidad a los eventos: https://arxiv.org/pdf/2207.10583.pdf sección 5

2 respuestas
Atrus

#47 El problema es que en la naturaleza hay pocas cosas que puedan considerarse "eventos aislados" y la mayoría de ellos tienen repercusiones sobre el sistema que no se ven a priori, pero que posteriormente se manifiestan y cuesta relacionarlo con el evento inicial.

#44 gracias por el link.

Como ya han dicho en comentarios anteriores, con los modelos actuales, la información que puede proporcionar una IA será equiparable al conocimiento medio de alguien del sector, y dependiendo quien la reciba será más o menos útil.

Aún así, teniendo en cuenta de donde venimos y como estaba la IA hace 10 años, el aprendizaje automático ha mejorado notablemente.

B

Yo en mi día a día pienso con dos cosas, con el corazón y con el big data.
A mí el big data me dice que si me convierto en big data me forro. Pero mi corazón no quiere estudiar.
Cada vez que tengo que tomar una decisión me paso dias investigando por internet, buscando la opinión de los mejores expertos, preguntando a mí entorno y luego de todo eso hago una media y esa es la decisión que tomo.
Suelo acertar más, pero ser así me mantiene siempre estresada, me causa insomnio y entonces no paro de cagarla continuamente en otras cosas más simples.
Así que creo que lo mejor para tomar decisiones es fumarte un porro y dejar que fluya la imaginación.

B

#47 Yo no he entendido nada pero tú comentario parece inteligente y estoy desbloqueando nuevas funciones cerebrales para asimilarlo y apuntarlo en el apartado de buenas ideas

B

#42 Bueno yo creo que con el gobierno que tenemos en España poner una máquina que tome decisiones al azar sería mejor de lo que ya tenemos.
Imagínate si encima tiene IA