
import redis.clients.jedis.Jedis
public class RedisStringJava {
public static void main(String[] args) {
//连接本地的 Redis 服务
Jedis jedis = new Jedis("localhost")
System.out.println("连接成功")
jedis.set("str", "字符串")
// 获取存储的数据并输出
System.out.println("redis 存储的字符串为: "+ jedis.get("str"))
}}
通过导入文件的方式插入,文件可以用其他方式先生成,比如使用java,来生成data1.txt,然后使用下面的sql语句:load data local infile 'd:/data1.txt' replace into table hk_acinfo lines terminated by '\\r\\n'
使用这个方法,我插入过1千万以上的数据,如果没有网络影响的话,每秒1M+/s的速度写入,很快的
spark往redis刷入数据foreachpartitio。上面的代码中,一次性批量插入了整个partition的数据,单个partition的数据量太多,会导致Redis内存溢出,导致服务不可用。解决方法是在foreachPartition。欢迎分享,转载请注明来源:内存溢出
微信扫一扫
支付宝扫一扫
评论列表(0条)