Feda /dev/

Wallcroft

#6747 las puntuaciones y demás

alterego

http://www.casareal.es/robots.txt

User-agent: *
Disallow: 
Disallow: /_*/
Disallow: /ES/FamiliaReal/Urdangarin/
Disallow: /CA/FamiliaReal/Urdangarin/
Disallow: /EU/FamiliaReal/Urdangarin/
Disallow: /GL/FamiliaReal/Urdangarin/
Disallow: /VA/FamiliaReal/Urdangarin/
Disallow: /EN/FamiliaReal/Urdangarin/
Sitemap: http://www.casareal.es/sitemap.xml
4 1 respuesta
Saphyel

#6752 menudo gol marco ayer Arquimedes, no??

gohrum

Vosotros que haríais, un cron poco frecuente con "mucha" carga de servidor, o muchos crons fáciles y rápidos de ejecutar para el server?

una ejecución cada 5 minutos se considera muy frecuente o poco frecuente?
Puedo meterle mas caña?

A grandes rasgos tengo una DDBB con unos 6000 registros (imagino que se va a doblar en breves) y quiero hacer scrap de varias webs externas para actualizar todos los registros al menos una vez cada 24h.

besis

1 respuesta
eXtreM3

#6754 6000 registros son minucias. Mete todo en un solo cron.

1 respuesta
comx

Programadores JavaEE venid a mi !! - Me gustaría que probarais un proyecto que he estado haciendo para crear test para vuestros REST APIs https://github.com/nirodg/easyrs

Con la nueva versión que está por venir habrán varios cambios - refactoring, actualizar el README...

1
gohrum

#6755 son minimo 3 webs a pillar por curl para cada registro, no me parecen pocas, pero yo que se

s4suk3

alguien me explica brevemente de que va la cache en headers get? :\

1 respuesta
B

#6758 Me parece que has buscado 0
https://developers.google.com/web/fundamentals/performance/optimizing-content-efficiency/http-caching

1 respuesta
s4suk3

#6759 me parece que no respondes a la pregunta

1 respuesta
B

#6760 Me parece que sufres de vaguitis aguda, básicamente cachear peticiones para agilizar el tramo cliente servidor

s4suk3

Minimum TTL The minimum amount of time, in seconds, that you want objects to stay in CloudFront caches before CloudFront forwards another request to your origin to determine whether the object has been updated. Minimum TTL interacts with HTTP headers such as Cache-Control max-age, Cache-Control s-maxage, and Expires and with Default TTL and Maximum TTL.

se supone que si le pongo 60 cacheo 1 min las peticiones?
que pasa si no tengo puesto los headers de cache-control?

1 respuesta
Merkury

#6762 pues que se cachearan con el TTL por defecto de CloudFront

s4suk3

ando un poco perdido la verdad

el enigma

Should Forward Query Strings true
Should Forward Cookies all

que es eso? :psyduck:

eXtreM3

7
gohrum

Hola chicas, busco vuestra sabiduria en bases de datos.

Tengo una base de datos MySQL con dos tablas.
La primera tiene unos 6000 registros y es tal que asi:

SQL

Y tengo un par de preguntas.

La primera es sobre agrupar en un nuevo campo. Quiero agrupar los campos de metascore, steamscore y steamscoreAlt, además de añadir el campo de metascoreUser. Creo que podría unificarlos en un solo varchar, llamarlo scores y guardarlo en json directamente en la tabla. La base de datos no opera directamente en php y sirve unicamente como respuesta a una aplicación externa que se comunica y envia datos en json. La pregunta es: es óptimo? Me refiero, nunca voy a querer buscar por metascoreUser, al menos no a corto/medio plazo por como está montada la app.

En segundo lugar, quiero ir actualizando las apps con información de internet mediante cURL y haciendo scrap. El tema es que quiero evitar hacer 12.000 requests al día a metacritic y paginas similares xq me van a banear la IP o similar. Quiero crear una "cola" con las apps mas solicitadas por los usuarios, y mantener esas apps mas actualizadas, reduciendo asi el numero de peticiones al dia.
Actualizaría un % de las mas visitadas, junto a un numero fijo ordenadas por última actualización y un % de apps mas recientes (porque las mas nuevas suelen cambiar la info de la tienda o la metascore en sus primeras semanas).

Me recomendais crear una nueva tabla con la ID de la app y las fechas de actualizacion, creación y requests, o directamente lo añado a la tabla ya existente?

2 respuestas
eXtreM3

#6766 a la primera consulta, me remito a mi comentario anterior. Son 6k tuplas, no va a haber apenas diferencia (microsegundos?) utilizando un método u otro.

Nitamo

#6766 Desde la 5.7 tienes columnas de tipo JSON, pero por norma general es un antipattern.

De todas formas yo lo uso para loggear los bodies de las peticiones y repuestas de mi API y me hace el apaño, luego puedes hacer consultas del tipo:

select json_column->"$[*].object" as values from log

puedes meterle también wheres y havings así que hace el apaño

https://dev.mysql.com/doc/refman/5.7/en/json.html

NoRelaX

Este hilo se ha convertido en Yahoo respuestas :(

Soulscx

solucionalo pues

1 respuesta
NoRelaX

#6770 Deja de seguirme


2 3 respuestas
Soulscx

#6771 que tengamos los mismos hilos en favs no significa que te este siguiendo, de hecho pienso que somos como almas gemelas y que estamos hechos el uno para el otro :qq:

2 2 respuestas
comx

#6772 #6771

 
comx ~ git checkout soul
Switched to branch 'soul'

comx ~ git merge twins
Updating f42c576..3a0874c
 1 soul changed,  2 insertions(+)
2
Lecherito

#6771 Quiero esa camiseta

MisKo

#6772 De que anime era esa seríe? Ya salio otra vez y busque en su dia pero no lo guardé :(

1 respuesta
Soulscx

#6775 golden boy, oro puro, nunca mejor dicho

1 1 respuesta
Nitamo

El típico comentario de -no me compilaba por un punto y coma- me ha parecido siempre muy de newfag

0/10 Wouldn't buy

eXtreM3

Amazon S3 vs Azure vs Google Cloud, ¿cuál y por qué?

1 respuesta
Nitamo

#6778 Entre Amazon S3 y Google Cloud (Storage) que son los que he utilizado, me quedo con Google por gsutil, es una auténtica maravilla, tiene disponibles un montón de comandos (cp, ls, rm. mv...) que te permiten hacer operaciones en masa bastante rápido, y si pilotas de bash en nada que bucees por la documentación ya le estás sacando provecho.

Yo por ejemplo tenía que subir cantidades ingentes de ficheros de un VPS al GCS y con un gsutil -m(multithread) cp, en 1 hora ya lo había subido todo.

Además la documentación es bastante completa y la interfaz web es en mi opinión más amigable que la de Amazon.

De Azure ni putísima idea.

Saphyel

#6776 Golden boy es el mejor anime hasta la fecha!!! Me alegra ir descubriendo animes a todo el mundo :D

http://tecnologia.elpais.com/tecnologia/2017/03/09/actualidad/1489052577_789811.html

anuncios en whatsapp por fin, lo que necesitabamos

3 respuestas
Tema cerrado