http://www.casareal.es/robots.txt
User-agent: *
Disallow:
Disallow: /_*/
Disallow: /ES/FamiliaReal/Urdangarin/
Disallow: /CA/FamiliaReal/Urdangarin/
Disallow: /EU/FamiliaReal/Urdangarin/
Disallow: /GL/FamiliaReal/Urdangarin/
Disallow: /VA/FamiliaReal/Urdangarin/
Disallow: /EN/FamiliaReal/Urdangarin/
Sitemap: http://www.casareal.es/sitemap.xml
Vosotros que haríais, un cron poco frecuente con "mucha" carga de servidor, o muchos crons fáciles y rápidos de ejecutar para el server?
una ejecución cada 5 minutos se considera muy frecuente o poco frecuente?
Puedo meterle mas caña?
A grandes rasgos tengo una DDBB con unos 6000 registros (imagino que se va a doblar en breves) y quiero hacer scrap de varias webs externas para actualizar todos los registros al menos una vez cada 24h.
besis
Programadores JavaEE venid a mi !! - Me gustaría que probarais un proyecto que he estado haciendo para crear test para vuestros REST APIs https://github.com/nirodg/easyrs
Con la nueva versión que está por venir habrán varios cambios - refactoring, actualizar el README...
#6758 Me parece que has buscado 0
https://developers.google.com/web/fundamentals/performance/optimizing-content-efficiency/http-caching
#6760 Me parece que sufres de vaguitis aguda, básicamente cachear peticiones para agilizar el tramo cliente servidor
Minimum TTL The minimum amount of time, in seconds, that you want objects to stay in CloudFront caches before CloudFront forwards another request to your origin to determine whether the object has been updated. Minimum TTL interacts with HTTP headers such as Cache-Control max-age, Cache-Control s-maxage, and Expires and with Default TTL and Maximum TTL.
se supone que si le pongo 60 cacheo 1 min las peticiones?
que pasa si no tengo puesto los headers de cache-control?
ando un poco perdido la verdad
Should Forward Query Strings true
Should Forward Cookies all
que es eso?
Hola chicas, busco vuestra sabiduria en bases de datos.
Tengo una base de datos MySQL con dos tablas.
La primera tiene unos 6000 registros y es tal que asi:
Y tengo un par de preguntas.
La primera es sobre agrupar en un nuevo campo. Quiero agrupar los campos de metascore, steamscore y steamscoreAlt, además de añadir el campo de metascoreUser. Creo que podría unificarlos en un solo varchar, llamarlo scores y guardarlo en json directamente en la tabla. La base de datos no opera directamente en php y sirve unicamente como respuesta a una aplicación externa que se comunica y envia datos en json. La pregunta es: es óptimo? Me refiero, nunca voy a querer buscar por metascoreUser, al menos no a corto/medio plazo por como está montada la app.
En segundo lugar, quiero ir actualizando las apps con información de internet mediante cURL y haciendo scrap. El tema es que quiero evitar hacer 12.000 requests al día a metacritic y paginas similares xq me van a banear la IP o similar. Quiero crear una "cola" con las apps mas solicitadas por los usuarios, y mantener esas apps mas actualizadas, reduciendo asi el numero de peticiones al dia.
Actualizaría un % de las mas visitadas, junto a un numero fijo ordenadas por última actualización y un % de apps mas recientes (porque las mas nuevas suelen cambiar la info de la tienda o la metascore en sus primeras semanas).
Me recomendais crear una nueva tabla con la ID de la app y las fechas de actualizacion, creación y requests, o directamente lo añado a la tabla ya existente?
#6766 a la primera consulta, me remito a mi comentario anterior. Son 6k tuplas, no va a haber apenas diferencia (microsegundos?) utilizando un método u otro.
#6766 Desde la 5.7 tienes columnas de tipo JSON, pero por norma general es un antipattern.
De todas formas yo lo uso para loggear los bodies de las peticiones y repuestas de mi API y me hace el apaño, luego puedes hacer consultas del tipo:
select json_column->"$[*].object" as values from log
puedes meterle también wheres y havings así que hace el apaño
#6771 que tengamos los mismos hilos en favs no significa que te este siguiendo, de hecho pienso que somos como almas gemelas y que estamos hechos el uno para el otro :qq:
#6772 De que anime era esa seríe? Ya salio otra vez y busque en su dia pero no lo guardé
El típico comentario de -no me compilaba por un punto y coma- me ha parecido siempre muy de newfag
0/10 Wouldn't buy
#6778 Entre Amazon S3 y Google Cloud (Storage) que son los que he utilizado, me quedo con Google por gsutil, es una auténtica maravilla, tiene disponibles un montón de comandos (cp, ls, rm. mv...) que te permiten hacer operaciones en masa bastante rápido, y si pilotas de bash en nada que bucees por la documentación ya le estás sacando provecho.
Yo por ejemplo tenía que subir cantidades ingentes de ficheros de un VPS al GCS y con un gsutil -m(multithread) cp, en 1 hora ya lo había subido todo.
Además la documentación es bastante completa y la interfaz web es en mi opinión más amigable que la de Amazon.
De Azure ni putísima idea.
#6776 Golden boy es el mejor anime hasta la fecha!!! Me alegra ir descubriendo animes a todo el mundo
http://tecnologia.elpais.com/tecnologia/2017/03/09/actualidad/1489052577_789811.html
anuncios en whatsapp por fin, lo que necesitabamos