Buenas a todos,
Estoy haciendo un proyecto, que realmente es el primero que se vé que va a tener un uso masivo, y estoy acojonado con el tema de la base de datos.
Hay una tabla 'registro_envios' que va a crecer de una forma desproporcionada, tiene 7 campos, casi todos int, menos un datetime y un varchar de 20. La aplicación consiste en mogollón de clientes (hemos instalado en 30, pero antes de fin de año serán 500) que envían campañas publicitarias a través de bluetooth a todos los móviles cercanos.
La gracia de mi aplicación es que se gestiona desde internet (el cliente carrefour puede cambiar al vuelo, la campaña de todos sus puntos bluetooth en toda españa). Hasta ahí todo bien.
El tema es que querían estadísticas ultra detalladas, queriendo poder consultar hasta la hora de cada envío, así que cada vez que se hace un intento de envío a un móvil, se guarda en la DB, la fecha y hora, y el resultado del envío, para luego hacer estadísticas del rollo 'que % de móviles rechaza en la comunidad valenciana, frente al pais vasco en X intervalo de tiempo'
Pues ahí está el cuello de botella, en 4 días, esta tabla tiene 120.000 registros aprox. y solo hemos instalado 30 clientes, no sé, y miedo me dá pensarlo, hasta cuanto aguantará, no sé ni el límite de tamaño (o hasta cuando funcionará fluidamente) ni de consultas simultaneas, porque los datos se actualizan cada 30 minutos, así que 500 puntos haciendo mazo consultas cada 30 minutos...
Hasta cuanto creeis que puede aguantar mysql? en el caso de llegar al tope, como se puede distribuir la carga en diversos servidores manteniendo la integridad de una única base de datos??