写点什么

Scala 在挖财的应用实践

2015 年 12 月 29 日

编者按:本文是根据 ArchSummit 大会上挖财资深架构师王宏江的演讲《Scala 在挖财的应用实践》整理而成。

这次分享有三个方面,一是介绍一下挖财当前的开发情况和后端的架构, 二是挖财选择 Scala 的原因,三是挖财使用 Scala 相关的技术时碰到的问题以及经验。

第一部分是团队的情况和后端技术的架构。近一年我们的开发团队从 50 人增长到了现在两百人,公司总人数扩张到 600 左右,技术人员占的比例跟国内大多互联网创业公司的比例差不多,1/3 左右的样子,昨天大会上王天提到 Twitter 的工程师 44% 左右在硅谷差不多是平均水平,国内公司比例要低一些。我们是一家典型的业务驱动公司,并不是技术驱动的,业务驱动的一个特点是需要快速尝试各种可能性,需要技术人员能尽快跟上,好的程序员并不是那么好招的,某些阶段在一定程度上先靠人数来堆。所以挖财技术团队中少部分人是有一定经验的,核心的一些架构师主要是从阿里出来的,大部分的程序员相对普通。

而后端技术用的主要是比较大众的东西,Web 容器用 Tomcat,框架主要是 Spring MVC,也有少量的 Play,中间服务层是 Dubbo,微容器用 Spring Boot,服务注册这一块是用 ZooKeeper,核心业务开发方式还是围绕着 Spring 和 Mybatis 等;数据的存储这块是 MySQL 和 Hbase,分布存储这块是用阿里巴巴之前开源的一个中间件 Cobar。消息和实时计算这块主要是 Kafka, Storm,日志以及监控系统则是用典型的 ELK 和 Zabbix。另外我们将要放弃 MongoDB 和 Memcached,并不是这些产品自身的问题,而是人的因素,最早的架构师对 MongoDB 很熟,后来因为他离开,这块的一些问题缺乏强有力的人把控,就放弃了。其他人对 MySQL 和 Hbase 更熟悉,并且这两种组合基本满足我们的需求了。Memcached 则是被 Redis 替代。总的来说,我们裁剪掉了一些之前使用的相似产品,减少为一种,主要是基于自身运维能力考虑的,不在于这些技术是否足够好或者是否符合团队的特性和遇到的问题,而是你能不能把它维护的好,或者说风险控制好。

业务上面我们大概也是比较典型的。基础设施是一块,然后中间是服务,上面是日常的应用。基础设施就包括典型的存储、消息、框架,还有发布、运维、监控等等。中间就是现在典型的 SOA 服务,用户的资产、服务、流水、交易等等,所有的服务采用 Spring Boot 打包部署,主要便于运维上的统一和方便做一些切面层的事情。最上面是应用,包括社区、记帐、钱管家、理财。而安全和风控会切入在每一个环节。

其实作为一个互联网的金融公司,很多时候我们对金融会有一点点陌生,在我们看来做一个理财产品或者一个理财业务其实和电商业务有很大的相似之处。主要就是理财产品,他也是一个商品,这个商品可能有高的回报,最初形成这个商品的时候背后有一套综合系统或者说有一套逻辑。并且购买这个商品之后,这个商品是有历史的,他的收益是在变化的,所以简化之后,我们发现跟电商系统是相似的。

这就是典型的架构,前面是 Web 或 Gateway,中间是 Service,中间层协议是 Dubbo 默认方式或者是 HTTP。

数据存储这一块主要是 MySQL 和 Hbase,当前还有小部分数据使用的 Mongo,ORMapping 这块我们用了 MyBatis。数据的水平扩展主要是基于刚才提到的 Cobar,它是阿里比较成功的开源产品之一。Cobar 支持数据的二维扩展,能满足我们的场景,比如说几千万用户的流水记录可以按用户加时间的维度来划分。如果单纯按时间的维度分区,在查询用户的流水时要散落到各个分区上,对各个分区的压力都较大。而按用户的维度则可能导致这个分区在一定时间后达到我们预设的容量上线,因为一天有几百万甚至上千万的流水进入。二维的方式可以解决这些问题。尽管我们后来发现用户的数据大多在最近一段时间内较热,时间比较早的数据相对较冷,只用了 Cobar 的一维扩展方式,将冷数据归档到 Hbase 集群来解决。在数据的在线处理这块,有很多用 Akka 框架的程序,比如计息系统主要是运算的,所以 Akka 很适合干这个事情。

自动记帐这块主要是钱管家这款产品,他会根据银行的帐单把这些数据汇总到这个产品里面,主要是从其他系统汇聚出原始的数据,根据这些数据我们会进行分类,进行加工和抽取,最后汇总到 database,这个过程的思路就是 command+pipeline 下面这套组合,只不过是分布式命令和管道,分布式里面命令是 Akka 所承担的角色。

数据分析这块,Canal 会把 binlog 数据丢到 Kafka 然后同步到其他系统。在线分析主要通过 Storm 进行,数据分析过程中缓存用了豌豆荚的 Codis。离线分析目前用 Hadoop/Spark 的方式,数据分析之后,一部分存到 Hbase,另一部分在通过 Cober 存储到 MySQL 里面。

前面介绍了挖财的架构,第二部分说说我们选择 Scala 的原因。首先 Scala 的语言还是有点争议的,不管是大师级的人物还是编程语言爱好者,对编程语言的争议从来没停止过的。但不管别人说 Scala 怎么样,从工程师的角度,从实用的角度来说,我是比较认可这个语言的。我觉得松本行弘批判保罗·格雷厄姆的话非常代表我的观点,他说的语言会朝着“小而干净”的方向进化,他自己也创造过一个 Lisp 的方言叫 ARC,他崇尚保持简洁和纯粹的设计思路,但这门语言并不算成功。从总体或者说未来的趋势来看,语言已经不可能保持那么小而精的状态。能够真正做到解放生产力这么一个目标才是演化的方向,所以从解放生产力这个角度来看的话,Scala 实际上是达到了这个效果的。不管怎么骂,Scala 确实为我们解决了很多实际问题,加速了我们的效率。

我们为什么会选择 Scala?可以说有一些巧合,在挖财快速发展的过程中,几个核心的架构师对这种语言都是比较喜爱的,并且之前有些经验。如果是一个人,或者说你的公司想做这个事情,但是没有人能够支持你去做这件事情的话,那其实是相当麻烦的。因为你至少要有好几个能力相当不错的人能够一起来做这个事情,才可能在公司把这个事情推广,才能够影响更多的人。这样形成核心的小的影响之后,会吸引来更多的爱好者的加入,这样才能够使这个语言被大家所接受。所以这就必须是一个团队,既使个人能力再强也没用,团队的意愿非常重要,假如他不愿意用这个语言,或者他不接受这个语言,那么用主流的 Java 也是 OK 的,培养而不是强迫,如果用这个语言当然更好,如果不使用的话也没有关系。但是我们可能在口味上会偏好这些人,因为我发现相对来讲这些人他会更愿意去思考,或者说在处理一些问题的时候会比普通的程序员想的更多。在这个过程中还有个非常重要的事,就是慎重的选择开发栈。就拿选择 Scala 来讲,Scala 有他自己的生态系统,跟 Java 还不太一样。比如说 Java 在 Web 层有 Struts/Spring MVC 框架,Scala 有 Play/Lift,构建工具 Java 里面是 Maven,Scala 则以 sbt 为主。Scala 有一套自己的玩法或者说技术栈,你是不是选择整套技术栈是需要非常慎重的。挖财处于一个中等创业公司的规模,对我们来说,Java 还是更大众化的。在业务发展过程中,人员加入还是比较快的。而且很多人还是以 Java 为主,所以我们的做法是不改变这些人员的习惯,还是以 Java 生态为主,没有强制的用 Scala 的开发栈。而且 Scala 的技术栈里有不错的产品,也有维护的很差的产品。你选择一个产品时,先看它的邮件列表,如果邮件列表里都没有什么来往邮件,这个产品的维护性和持续性肯定不够。

Scala 的优点体现在,原来 Java 里的设计模式,现在在 Scala 的语言层面就提供了。比如说 Java 里的单例,Scala 直接对应的就是 object;访问者模式我们可以用更优雅直观的模式去匹配;还有构造器模式;依赖注入在 Scala 里面有蛋糕模式。

不可变的模式主要是在并发编程里面的,并发编程我们主要面临的就是状态,怎么同步或维护这个状态,保证这个状态不被污染掉。如果这个状态本身就是不可变的,那么就不存在竞争性。Scala 本身推崇不可变的思路,当你想要去改变这个状态时,实际是 new 一个新的状态,原来的数据对象并不会改变本身,但 Scala 也并不是说完全像一些纯粹的函数式语言偏执于只用一种纯粹的不可变对象,所以 Scala 也提供了一种像 Java 的可变的数据变量 (用 var 声明)。还有就是 Java 里面我们用来在不同的领域(尤其是在网络)之间传输的都是值对象,值对象的描述跟一般的对象一样,表达上略微有点啰嗦。而 Scala 里使用的 case class 在表达上则简洁一些,并且这些 case class 配合模式匹配非常好用。这些都是表达方式的简洁化,或者提升生产力的一种体现。

其他的优点比如动态类型以静态类型的方式去实现动态的效果,我们称之为 duck typing,他看起来像 duck 听起来也像 duck 那么它就是 duck。Scala 里面以隐式参数或者隐式转换的方式实现动态语言的等价效果,只不过这种方式在编译器能够更好的检测,所以在安全里更有保障。还有利用函数式特性去自定义流控,比如说 C#里的 using 是一个很好的特性,我们在 using 的括号里面定义一个 resource,不管是一个文件流或者是一个 disposable 资源,程序处理完会把这个资源自动释放,我们可以在 Scala 里面通过柯里化和函数特性也可以灵活的定义类似的流控,实现等价效果。另外还有它强大的集合操作,就举两个例子,我们想要从同一组流中进行下图的两个查找,同样的效果的写 Java 很麻烦,而 Scala 通过高效的运算以很简洁的方式实现出来。

当然他有不好的地方就是门槛相对高一点,这个门槛就是函数式背景,举一个例子,比如说 eta 规约,比如说我这个函数里面的参数是接收另外一个函数,简单的说就是高级函数,这个高级函数里面传给他的参数比如说是 arg => method(arg) ,就是一个参数传给另外一个方法,我们可以直接简化一下把这个表达式直接简化成 method,(在 Java 里这种 Lambda 的简化表达为 class::method 还相对好辨识一些) 这些可能会导致很多人在看这些函数式的编程语法的时候会产生一些疑惑和不熟悉,这些疑惑表面上觉得是编程语言的俗语,实际上背后是函数式的理论或者它的一些特性,不是大部分人都熟悉的。另外一个不好的地方就是在类型上确实做的有点复杂,有点过头了,他的类型系统是从 ML 系语言以及 Hashkell 过来的,在类型方面有很多高阶特性,远比 Java 要复杂多了,可以这么对比,Java 的类型系统是一维世界,那么 Scala 的类型系统是二维世界。甚至他的类型系统本身也是图灵完备的,可以用类型系统解决 SKI 组合子问题,我推荐大家去搜一下用 Scala 的类型系统来解决汉诺塔的程序,依赖类型来解决问题思路是这样的:编译即运算。如果编译器编译通过,就说明类型演算证明了这些问题。这样带来的好处就是我只要编译成功,类型演算就完全被编译器执行,就是这些事情完全交给编译器去做。不好的地方还在于他的灵活性必须有一些克制和一些妥协,减少高阶特性,并不是每个人都喜欢高阶特性。我们还要在编码风格上有一些约定。当然在编译过程中也要利用好编译器的参数,这些参数会帮你提前发现一些问题。所以在挖财,我们主要引入 Scala 语言,但没有用 Scala 这个生态系统里面的一些框架(除了 Akka),没有全面用它提倡的全面异步化或基于事件的处理方式也没有用它 Web 或 RPC 之类的框架,我们没有改变传统模式,还是基于 Servlet 模型,还是以 Spring 为中心。这种保守的做法使得大家对整个架构接受起来是比较容易的,并且较好把控。

接着讲讲 Scala 在挖财的使用方式。我们用一种很自然很透明的方式就能将 Spring 这些框架与 Scala 集成的很好, Scala 与 Java 只稍微有一些差异,所以 Scala 与 Java 的生态系统集成这块是非常顺当自然的。但在生态系统集成这块也会遇到一些问题,就是 Akka 和 Spring 都是比较“强势”的托管者。Spring 是 bean 的托管者,bean 的创建和生命周期是由 context 来掌管的,而 Akka 系统中所有的 actor 创建都由其父 actor 掌管,当把 actor 也当作 spring 中的一个 bean 时,Akka 需要做一点”妥协”,它提供了 Indirect 的 Producer,可以包装到一个 Akka 的 Extension 里来简化 actor 在 spring 中的构造。我们选择了 Spring,最大的原因就是希望所有的开发人员在接受这些程序时不会感觉到陌生,他所有的编程习惯没有改变,只是语法上的不同而已。Spring 与 Dubbo 集成没有什么问题,只要注意到一点,就是多个系统之间,有的系统不是用 Scala 的时候,你必须用纯的 Java 来返回 API 里定义的模型,否则可能一个底层是 Scala 实现的对象在对方那里反序列化会找不到类。在不同的系统间,你在 API 这个层面暴露的只能是 Java 定义 API。

然后要用好 REPL,它是交互式的工具,它对于大家快速地验证简短的几行程序是非常有帮助的。编译我们还是没有选择 sbt,sbt 是基于 apache ivy 的包管理方式,所以出于统一的考虑我们大多数 scala 也是采用 maven 管理。每个人发布他的项目必须保证他的项目是自测的或者他自己用 mvn spring-boot:run 或 mvn tomcat7:run 的方式能够跑起来。一些参数的话,编译系统的参数可能也有一些对比,在提前编译的时候,我发现你的问题是有好处的,其中比如第二个"-Yno-adapted-args"这个参数我举一个例子,就是 Scala 里面有一些类型推导会自动适配,假设有一个 Unit 类型,就是类似于 Java 里面 Void,println(a:Any) 这个方法在 Scala 的里面定义的其实就是接受 Any 任何类型的参数,我执行 print 的时候我可以传给他任何参数,比如 print(1,2,3),这个时候你会发现与你预期不符,明明我传递了三个参数,怎么它最后也成功打印出来了,你就会觉得很诡异,这个到底是编译器搞了什么鬼还是 bug,这个叫做类型适配,这个里面就会涉及到 Scala 的 Tuple 类型,叫做元组,元组这种类型就是当我用小括号,一般是用小括号去描述它的,比如说 (1、2、3) 这样的元组,他是三个元素的元组,用小括号来描述一个元组时,你如果没有小括号编译器发现你这个参数与他期望的参数不匹配的时候,他会把这个东西适配成一个元组,然后这里面变成一个 Tuple3,就是一个 Any 具体的实现,导致这个方法可以通过,所以 no-adapted-args 这个参数告诉编译器我们不要去做适配的事情。

第三部分我会介绍一下我们在使用的一些中间件产品如 Cobar、Kafka、Akka 的问题和经验。挖财使用 Cobar 主要是因为之前我们的首席架构师王福强曾参与过 Cobar 的开发。相对来讲在我们的团队里面,它还是比较稳定的。对于个别的小问题我们是可以规避的,或者我们知道了以后是可以改的。我们现在采用的分区策略有两种,一种是 by range 的方式还有一种是 by hash。第一种比如说每天你记帐进来,按照这个时间的纬度当一个库承载不了时,他会按照时间的纬度自动的到下一个库,所以是比较简单的方式。第二种就是你开始就明确的建好,比如说我们分成十个,当后面发现不够的时候,可以再把它变成 20 个。所以你只要开始预留好,当你翻倍的时候你再做一些事情就可以了。Cobar 本身也是支持二维的,但是这个方式稍微有点高阶,尽管我们有些场景需要这个。就是说你按照时间维度去划分时,很多时候用户的请求,也就是人的流水会分布在所有的时间,这个会造成一些麻烦,他可能会碰到多个区间。但是我们可以用一些方法来解决这些问题。Kafka 在挖财是比较重要的中间件,我们现在的规模并不大,业务消息是几千万级的情况,日志相对多一些有几个亿,Kafka 在我们这就是万金油,它不仅仅是消息,并且当数据在处理时,把它当成分布式管道来运用的情况是很多的,还有一些数据我现在先把它放在 Kafka 里,然后又交给其他的程序做后续处理。所以它是被我们广泛使用的中间件。我们了解到一些金融公司,他们是采用那种 EventSourcing 的设计思路,也就是事件驱动。事件驱动这块他会面临一些问题,就是 event 要怎么样去 journal 好,不管是审计还是其他的一些需要。也看到有一些系统利用它做了应用级的 journal。

在我们这边的话,Kafka 的一种方式,就是基于 JVM 的业务系统直接去连接这个集群,而另外一些异构的系统,通过 HTTP-proxy 的方式可以简单地处理。我们稍微有一点不同的是,我们是把 offset 全部存在 Redis 里,而 ZooKeeper 里没有存 offset。

没有选择 ZooKeeper 存储是因为刚搭建的时候,当时对 ZooKeeper 的运维能力相对弱一些,所以我们会更偏好使用相对有把握的一些东西,所以我们基于 SimpleConsumer 做了一些封装,把 offset 的存储为本地文件或 Redis。我们在运维上做了一个简单的约束,当前业务量不是很大的情况下我们尽量减少分区数,大多情况一个分区就够了,必要的话可以多个 topic。

有一个案例就是 Kafka,不管同步还是异步发送都会出现消息重复的情况。还有一个我们当时的测试环境, 某个 topic 发现消息较大发送不成功,调整了一下 msgeSize 和客户端的 fetchSize,当时 leader 这边可以接收这个大的消息,但 follow 出了问题,副本是使用的 replicaSize 的,结果发现它是不可修改(至少在我们遇到的例子时的版本里并没有地方可以修改这个参数)而导致了两个 follow 从 leader 去取数据的时候就取不了这个大的消息,因为这个 msgSize 大于它的 replicaSize,所以造成 follow 这边不断的去连,但是又消费不了,整个网络流量都异常了。

Akka 在我们这边也是广泛使用的系统,在业务里面在用它做运算,其他的场景主要是在数据处理,它天生具有扩展性,所以我们开始做一个事情的时候,可能一个 Akka 就可以处理这个东西,等到将来它量变大时,因为一个 Akaa 和多个 Akka 之间的扩展性是有天然的,所以扩展起来还是非常方便的。我们在使用它的时候也因为人员的情况,并没有使用一些很复杂的情况,比如说持久化那块曾经去尝试过,但是发现还是有一些问题,所以后来就没有再用持久化,还有它的集群也还没有用。下面我介绍一个简单的场景。假设你在类似于 BAT 这样的流量入口做一些广告或者做一些引流的时候,可能它会瞬间给你带来巨大的流量,而如果你自己的私有云或者你自己的机房没有立刻准备好几百个机器应对时,可能会宕机。这时就有了公有云和私有云结合的方案,我们就在公有云上面申请上百个甚至几百个实例,公有云是活动的入口,你这个广告可能会面向几千万的用户,但是假设这几千万的用户就像一个漏斗层层在损失,最后能用的时候就变成了几十万,取决于你的业务特性,在最前头也就是入口这块量是最大的,你怎么解决入口这块呢?可以简单地在公有云上购买一大堆服务器,然后把流量引入过来之后,把这些请求全部丢到 Kafka 里,然后用 Akka 异步做一些处理,这些处理需要你去调你做的这个活动的接口,调用完之后再把这些东西存到 Akka,由你自己的集团去搭那些处理过的东西,这样就极大的利用公有云构建了这些设备,解决了你活动的需求。

还是刚才这个例子里面我们看一下在 Akka 里的几个 actor 角色,这前面我们通过 Netty 把这些请求丢掉 Kafka 之后,后面每个 Akka 都会处理这些请求,第一个就是 KafkaReceiver,他负责从 Kafka 去拉这些消息,这块采用 pull 而不是采用 push,一个原因是我们的 Kafka-client 是有自己独立的线程,并非 Akka 里的 dispatch 线程,因为最早实现 Kafka-client 的时候,它并非为 Akka 所设计和使用。KafkaReceiver 角色里通过一个 BlockingQueue 来平衡 receiver 与后续 actor 之间处理的能力的不匹配问题。

最重要的一点是在 actor 的世界里面千万避免同步阻塞,所有的 actor 底层的线程池是复用的,如果你的 HTTP 调用在里面堵塞住了,那么可能整个 actor 都可能被堵塞了,mailbox 里后续的消息无法被处理,甚至整个系统都会被阻塞,所以同步在这里面是一定要避免的,当这些调用成功的时候我们交给后面一组 actor,异常的时候我们会交给另外一个组,他可能会丢到另外一边,由另外一边来处理,这样就避免了你自己在一套逻辑里容错的时候要考虑一下这个问题。Akka 的感觉比 Scala 原本自己的 actor 是要做的更好一些,要不然 TypeSafe 也不会收购 Akka 这个团队,在 actor 的模型里面,他有很天然的扩展能力,但是在 JVM 里,他的底层实现还是要通过线程调度,他的线程实现这块是利用非常高效的 fork/join,最大的特点就是双向队列,当一个队列里面被处理完以后,线程会从其他队列里偷取别人的任务,这样会解决不均的情况,有的处理慢有的处理快,处理快的就帮助处理慢的这些,所以他在实际执行过程中 Akka 还是很容易把 CPU 跑满,所以利用率还是非常高效。

我们大部分的数据处理,是用 Akka 和 Kafka 的简单模式,就是 Unix 上的管道模式,现在是用分布式的方式,我们用它也还是要和业务结合,就比如说你要聚焦这个服务,而这些现有的服务都是 Dubbo 的一种,所以 Akka 与 Spring 整合起来还是很方便的。最后我们总结一下对 Akka 使用的一些小结。第一是尽可能保证 Actor 职责尽可能单一。第二避免阻塞,阻塞在 Akka 的模式下一定要避免这个方式。第三是 Supervisor 和错误处理也是要有自己的策略,到底是收到以后重启它还是立刻把这个上报,这个都要根据自己的业务情况确定,在消息处理的时候要保持平衡,这边生产出的那边要消费了,你的能力强和弱的时候你要自己去考虑。有些地方我们可以通过加一些简单的监控,比如对 mailbox 的计数,或者访问统计,将待处理的任务用 WaterMark 标记出来,就能够知道当前 Actor 的处理能力,让我们更好的了解各个 Actor 状况。还有常用的模式,类似于替身模式,或者短路模式等等。因为时间的关系我们就不去展开的讲。

最后分享一个小技巧,就是关于 Actor 的优雅关闭。其实优雅关闭的话题在每个系统里都要有的,比如你发布后,你怎么样让这个系统优雅地下线,还有你后面关闭服务的时候,Actor 或 Akka 如何优雅关闭。你应该先关闭什么后关闭什么从而让这个顺序有所保障,这就是让你尽可能的做到优雅。

有一种模式就是我们根据 Terminator 模式设计的一个变种 Governor 模式,所有干活的 Actor 都由 Governor 来掌管,Governor 是他们的父 Actor,他们在消亡中的时候所有都是由 Governor 来掌控他们的生杀大权的。另外一个角色是 Master,他不是真正干活的,他只是负责这个任务要开始真正执行了,Master 跟 Governor 之间是协作,Master 把自己注册到 Governor,由 Governor 去 watch 它,当 Master 死亡的时候会发送消息给 Governor。实现上先提供一个 Governor 的模板,在这里负责创建那些干活的 Actor,以及顺序停止的时候先停止谁后停止谁这么一个过程。把他的顺序制订好,比如说 KafkaReceiver,他相比 Processor 的顺序是 1,然后 Processor 的顺序是 2,大家在关闭的时候都会按照这个顺序先把 KafkaReceiver 给关闭了,然后再关闭 Processor,最后在关闭 Storer。当 Master 发给自己一个毒药丸说我要退出了时,因为 Governor 会关注 Master,所以他会按顺序杀死子 Actor。

最后推荐一些 Scala 相关的书。第一本是《Programming in Scala》,是 Scala 比较重量级的一本书,Scala 之父他们几个人联合写的一本书,里面写的很含蓄但是信息量是非常大的,所以 Scala 真的要去消化很多遍。第二本是《Scala for the impatient》,第三本是《Scala in depth》这个是相对高级一点的书,最后一本是《Functional Programming In Scala》,这本书里面讲到了很多类型性的和函数式的比较高阶的比如 monad 等一些特性。

2015 年 12 月 29 日 13:2310369

评论

发布
暂无评论
发现更多内容

自建本地电话告警系统

周楠

运维 物联网 监控告警

告别消费主义的双12,是华为云12.12会员节真正的意义

脑极体

如何在数智化时代少走弯路? 这里有100个案例可以借鉴

京东科技开发者

DevOps 云原生

建信金科大咖访谈:金融衍生品定价与建行实践

金科优源汇

金融科技 金融创新

记一次MapReduce的内存溢出

AI乔治

Java mapreduce 架构 内存溢出

静态代码分析工具评估指标及方法

maijun

AWS 助力贝壳VR看房走出国门,升级全球居住服务新体验

亚马逊云科技 (Amazon Web Services)

AWS

搭建网站/APP最全准备攻略

前嗅大数据

小程序 建站 APP发布

Java中多线程安全问题实例分析

叫练

Java 多线程 什么是多线程 多线程与高并发

浅谈JDK并发包下面的分治思想及分治思想在高并发场景的运用

AI乔治

Java 架构 jdk 分布式 多线程与高并发

图文回顾丨北京「解构云原生:企业数字化转型新支点」沙龙

RancherLabs

k8s rancher

面向全场景模块化设计 京东智联云的服务器部署有多灵活?

京东科技开发者

服务器 云主机

这才是你需要的C/C++Linux学习路线!

赖猫

c++ Linux 后台开发 服务器开发

传统巨头抢占区块链场景高地 医疗、汽车、金融成为热门赛道

CECBC区块链专委会

区块链 金融

信任的传递——为什么我们需要第三方授权?

ThoughtWorks洞见

证书 身份认证

Apache顶级项目ShardingSphere — SQL Parser的设计与实现

京东数科风险算法与技术

数据库 开源 中间件

几种常见的研发管理体系,哪种更适合你?

菜根老谭

敏捷开发 研发管理 CMMI IPD

第十三周学习总结

饭桶

住建部等六部门:广泛运用区块链等技术,建设智慧物业管理服务平台

CECBC区块链专委会

物业生活

EMAS远程日志 - 移动端问题排查利器

应用研发平台EMAS

阿里云 运维 日志 监控告警 应用

Elasticsearch 新机型发布,性能提升30%

小小的一朵云

大数据 elasticsearch Elastic Stack

牵头成立“现代计算联盟”,强大如谷歌也需要组团打怪吗?

脑极体

第13周作业

饭桶

云南区块链电子发票全面推广啦!

CECBC区块链专委会

区块链 纳税人

内存问题探微

AI乔治

Java 架构 编程语言 内存 多线程与高并发

云原生架构-可观测性之 Prometheus 服务自动发现

云原生实验室

互联网应用系统常见问题与方案

raox

极客大学架构师训练营

即构实时音视频多中心调度设计

ZEGO即构

Shell脚本命令常用技巧

MySQL从删库到跑路

shell脚本编写

附PPT丨AI和云原生时代的数据库进化之路

dbaplus社群

数据库 云原生

大咖直播 | Elasticsearch 应用监控管理平台搭建实战

小小的一朵云

大数据 elasticsearch Elastic Stack 监控管理平台

演讲经验交流会|ArchSummit 上海站

演讲经验交流会|ArchSummit 上海站

Scala在挖财的应用实践-InfoQ