lo puedo añadir a este foro sin problemas, quiero ver si puedo arreglar alguna de las incompatibilidades pero en principio hay que usar doble escape en las formulas \\[ \\] o \\( \\)
Otro que se apunta por aquí a hacer el curso #1 . Llego un poco tarde, pero quería probar la primera semana antes a ver que tal.
Alguién tiene un ppt o pdf sobre reglas de asociación. Es algo que no se usa mucho pero lo necesito para un compañero.
Pues hoy solo he podido hacer el Welcome y la introducción. A ver si mañana puedo ponerme con el resto
#122eXtreM3:perfecto, avisa cuando esté disponible por aquí ^
When \(a \ne 0\), there are two solutions to \(ax^2 + bx + c = 0\) and they are
$$x = {-b \pm \sqrt{b^2-4ac} \over 2a}.$$
Resultado:
When \(a \ne 0\), there are two solutions to \(ax^2 + bx + c = 0\) and they are
$$x = {-b \pm \sqrt{b^2-4ac} \over 2a}.$$
Es posible que haya algún que otro bug por culpa del markdown, ya me decís a ver si puedo arreglarlo
Edito: he solucionado el problema del escape, se pueden usar los delimitadores normales de TeX
Yo ayer vi el video de regresión lineal y me daba un poco de miedo porque donde más cojeo son las mates, pero la verdad es que el tio explica muy bien.
#133 está genial.
#133Beavis:Es posible que haya algún que otro bug por culpa del markdown, ya me decís a ver si puedo arreglarlo
De momento he detectado que en el símbolo del sumatorio no aparece el rango, y al poner varios subíndices en la misma línea se peta. Ejemplo:
$$θ0:=θ1:=θ0−α1m∑i=1m(hθ(xi)−yi)$$
$$θ1−α1m∑i=1m((hθ(xi)−yi)xi)$$
sale así:
$$θ0:=θ0−α1m∑i=1m(hθ(xi)−yi)$$
$$θ1:=θ1−α1m∑i=1m((hθ(xi)−yi)xi)$$
y debería ser así
Igual no es el hilo adecuado para hablar sobre esto y podríamos abrir otro para no desvirtuar más xD que @hda se nos pone nervioso.
pd: hosti qué ida de olla al pegar la fórmula, voy a editar un momento.
$$\theta_0:=\theta_0 - \alpha\frac{1}{m}\sum{i=1}^{m}(h\theta(x_i)−y_i)$$
Va mejorando pero vale, hay que leer bien la sintaxis, pensaba que podía copiar y pegar de las lecturas del curso (la fórmula en mathjax)
#135 Creo que sería así:
$$\theta_0:=\theta_0 - \alpha\frac{1}{m}\sum_{i=1}^{m}(h_\theta(x_i)−y_i)$$
$$\theta_0:=\theta_0 - \alpha\frac{1}{m}\sum_{i=1}^{m}(h_\theta(x_i)−y_i)$$
#144 No aún, justo es mi próxima lección en el curso de data science de IBM que estoy haciendo. Vaya casualidad.
Lo de Google no lo he probado, pero para Machine Learning y demás también tenéis https://www.kaggle.com/ hay empresas que tienen equipos dedicados únicamente a las competiciones que publican otras empresas (premios de +100K$).
También tienen una plataforma de aprendizaje que supongo que será introductorio y cubre bastantes cosas.
Usan Jupyter (se puede usar tanto con Python como con R). Se ejecutan todo en la nube y para redes neuronales te "dan" una Nvidia Tesla P100 para ejecutar los cuadernos.
OnTopic: esta semana no he podido hacer casi nada de la semana 2, va a tocar maratón.