我有一批数据是通过第三方接口更新的,那个接口是按分类获取的,同一个分类的下的数据每次获取玩要要进行覆盖处理, 比如图书这次获取的是1,2,3这三个id的数据三本书 过10秒我还按图书分类获取 获取的是2,3,4,5这四本书 那我就把最新的 2,3,4,5 四条数据覆盖到数据库(1删除 2,3 更新 4,5 添加)数据库目前是mysql 怎么高效的处理这个问题 接口刷新的频率很快 如果我每次都删除分类下所有数据再插入 锁表的时间实在不能忍受 求合理办法
php mysql nosql mongodb
数据量有多大?能让mysql锁表锁很久??
将数据从MongoDB迁移到MySQL有什么高效安全的办法?
高并发下Apache+mongodb的php驱动不稳定
选择mysql合适还是mogodb合适?
redis能完全替代MySQL吗?为什么?
大数据问题存储方案?
2000000万数据库 MongoDB 查询速度慢