mysql 如何处理亿级数据

mysql 如何处理亿级数据,第1张

1、数据表 collect ( id, title ,info ,vtype) 就这4个字段,其中 title 用定长,info 用text, id 是逐渐,vtype是tinyint,vtype是索引。这是一个基本的新闻系统的简单模型。现在往里面填充数据,填充10万篇新闻。 

2、最后collect 为 10万条记录,数据库表占用硬盘1.6G。OK ,看下面这条sql语句:select id,title from collect limit 1000,10很快;基本上0.01秒就OK,再看下面的select id,title from collect limit 90000,10从9万条开始分页。

3、8-9秒完成。

4、看下面一条语句:select id from collect order by id limit 90000,10很快,0.04秒就OK。因为用了id主键做索引当然快。

可以直接使用 rpm -qal |grep mysql查看mysql所有安装包的文件存储位置。

首先我们需要查看软件是否已经安装,或者说查看安装的软件包名称。如查找是否安装mysql接着根据 rpm -ql 列出软件包安装的文件。

综合上述以上的问题,可以直接使用 rpm -qal |grep mysql 查看mysql所有安装包的文件存储位置Yum查找除了rpm 查询还可以通过yum search 查找对应可以安装的软件包。

优势功能:

支持百亿边+快速导入,支持横向扩容。HugeGraph针对百亿级数据场景进行定制化优化,实现大数据环境下的快速导入和高效查询,同时能够对接Hadoop和Spark GraphX等已有大数据平台。

支持Gremlin图查询语言,Gremlin提供了标准、灵活、丰富的图查询语法。

支持多后端存储引擎,后端存储引擎可配置,可插件式扩展新的后端存储引擎。

支持快速的批量导入、批量导出功能,同时用户可灵活定义导入导出格式,支持CSV、TXT、JSON等格式,支持从HDFS、MySQL、SQL Server、Oracle、PostgreSQL等数据源直接导入数据。


欢迎分享,转载请注明来源:内存溢出

原文地址:https://54852.com/zaji/8718658.html

(0)
打赏 微信扫一扫微信扫一扫 支付宝扫一扫支付宝扫一扫
上一篇 2023-04-20
下一篇2023-04-20

发表评论

登录后才能评论

评论列表(0条)

    保存