WSL开发系列-idea篇(WSL2配置与结合IDEA2021使用体验(及wsl-gui踩坑)) 2023.2更新:因更新较多,将大部分内容迁移至 WSL开发系列。随着版本的迭代完善,加上本人丰富的踩坑经验,本人已放弃使用wslg版idea。更推荐直接使用windows-idea的wsl功能。 本文给出相关使用建议。 2021-04-13 程序员杂记 #生产力 #WSL
大数据通用计算平台(支持flink、spark、storm)-系统调研及设计 项目源于对flink_sql流计算任务的实际使用需求,最初目标是设计一个系统可以在线提交sql生成flink流式计算任务,并进行监控监测。 后延申至支持在线jar包提交的方式,同时支持批式计算任务。并以模块化开发的思路,引入对spark的支持。 2021-01-09 大数据 #flink #spark #storm
hive使用bulkLoad批量导入数据到hbase 本文主要参考了hbase和hive官方文档的说明,并结合cdh和hdp的一些教程以及个人在生产中的实践进行记录。主要内容有hbase bulkload的原理以及对应hive的操作步骤,最后基于cdh进行完整实验提供参考实例。不过整个操作确实很复杂繁琐,不是很建议使用。现在有挺多使用Spark Bulkload,下次有机会尝试一下。之前是遇到一个需求,源表在hbase上,需要重新生成rowkey并提 2020-11-23 大数据 #hbase #hive #bulkload
hive编写udf实践记录 官方教程:https://cwiki.apache.org/confluence/display/Hive/HivePlugins简单使用查看上面官方的文档即可。这里记录一下我使用的实践和一点注意事项。 2020-11-10 大数据 #hive
CDH客户端环境搭建 最近遇到一个需求:要使用azkaban对接客户的CDH集群,CDH用的是oozie,azkaban只能部署在我们客户端的机器上,所以需要在客户机上手动搭建CDH的hadoop环境。操作很简单,过程比较麻烦,这里记录一下。 2020-11-10 大数据 #CDH
oracle_logminer学习和实践笔记 Oracle LogMiner是Oracle公司从产品8i以后提供的一个实际非常有用的分析工具,使用该工具可以轻松获得Oracle 在线/归档日志文件中的具体内容,特别是该工具可以分析出所有对于数据库操作的DML和DDL语句。该工具特别适用于调试、审计或者回退某个特定的事务。 2020-09-24 后端开发 #oracle #logminer
Kubernetes应用中使用TLS(SSL)证书的两种方法及实践 在k8s应用注入自签发的TLS/SSL证书有两种思路:1.使用certificates.k8s.io API 进行签发。2. 直接利用自己的CA证书进行签发。一般推荐第二种方法,本文记录了两种方法的完整实践并最后将其转换为JAVA的使用格式。 2020-08-27 Kubernetes
Xloggc实践(JVM1.8及之前) Java服务器调优免不了要对gc日志进行分析,我一般是上传gc日志文件到GCEasy进行处理的,上传的文件有大小限制。另外默认的gc日志打印还会存在重启后丢失的问题。综上,我们希望gc日志文件在不能丢失(但允许超过一定时间或大小被清理掉)的情况下控制gc日志的大小或者按时间切割,即像Java日志框架那样的效果。Java9对jvm的日志系统进行了比较大的升级,可以比较好的实现这些需求,但大部分服务端 2020-08-20 后端开发 #jvm