Android 2.1 源码结构分析 lee Android 2.1 |-- Makefile |-- bionic (bionic C库) |-- bootable
Hadoop源代码分析(MapReduce概论) 大家都熟悉文件系统,在对HDFS进行分析前,我们并没有花很多的时间去介绍HDFS的背景,毕竟大家对文件系统的还是有一定的理解的,而且也有很好的文档。在分析Hado
heaper 是一款Immunity Debugger插件,主要设计用来分析windows环境下的堆结构,辅助windows堆溢出和其他一些复杂堆漏洞利用程序的编写。有了heaper 你可以快速察看堆
ls/12046843 mysql起始握手,先由server发起,client分析并回应自已同意的特性,然后双方依照这些特性处理数据包。 通信时是否采用压缩会改变数据包的字节变化。
国外安全研究人员将一些基于Pin动态分析框架编写出来的工具开源到GitHub,并在其博客上讲解各工具的技术原理。其中包括格式化字符串检测、溢出检测、UAF检测、内存Fuzzing及污点追踪等多项自动化程序分析功能。
使用redis clusterRC1部署集群,6台机器,每台部署16个实例,每个master使用一个slave,node_timeout为默认值(15s)。 kill掉其中一个master发现failover完成不了。通过cluster nodes观察,该节点一直处于pfail状态。问题出在失败判定上,一直处于PFail,说明完成不了PFail->Fail的转换。然而同样的配置在32节点的集群中,Failover一点问题没有。
apache shiro非常易于使用,如果是在标准java web环境下使用,你没有必要去了解内部的工作流程。如果需要在非标准java web环境使用,就必须深入到它的整个对象图中去。我希望在clojure ring的环境中使用shiro,我还不知道行不行,我正在了解中。
Squid 服务日志分析 Apache 和 Squid 是两种著名的代理缓存软件,但Squid 较 Apache 而言是专门的代理缓存服务器软件,其代理缓存的功能强大,支持 HTTP/1.1 协议,其缓存对象也较多;并且
控日志等等” 2 "对于这些日志的离线分析(Hadoop),wget&rsync虽然人力维护成本较高,但可以满足功能行需求。但对于这些日志的实时分析需求(例如实时推荐,监控系统),则往往必须要引入一些“高大上”的系统"
EventHub是一个开源事件分析平台。EventHub 能够进行跨设备的事件跟踪,事件通过所关联的用户在服务器聚合在一起。该服务器还带有一个内置的仪表盘,可以用来回答以下常见业务问题: 什么是我的渠道转化率
lic的put和get等方法进行key-value形式的缓存你想要缓存的数据类型。这里选取其中一种分析: public void put(String key, String value, int saveTime)
tes是其中最具代表性的一员,它是 Google多年大规模容器管理技术的开源版本。本系列文章将逐一分析Kubernetes, 本文主要讲解如何开启DNS支持,以及其原理和使用方式。 1.开启DNS
tes是其中最具代表性的一员,它是 Google多年大规模容器管理技术的开源版本。本系列文章将逐一分析Kubernetes,本文详细介绍如何使用Kubernetes支持的几种 Volume。 Kubernetes存储
Google I/O 2013 大会上发布的 Android 异步网络请求框架和图片加载框架。 试用场景:适合数据量小,通信频繁的网络操作。
是这样,现如今,几乎在微软创造的所有新产品都使用 了某种程度的机器学习技术来分析语音、数据或文本。本文我们将着眼于文本分析。 随着计算机能够更好地理解自然语言,开拓的新领域无处不在——优化的应用程
Android-Universal-Image-Loader ,分析的版本: eb794c3 ,Demo 地址: UIL Demo 分析者: huxian99 ,校对者: Grumoon 、 Trinea
性能优化权威指南》介绍了一款分析 GC 日志的离线分析工具, 不过官网上没有下载的地方, 需要自己从 SVN 上拉下来编译。 GChisto 以表格和图形化的方式展示 GC 次数、 持续时间等, 提高了分析 GC 日志的效率。
lic的put和get等方法进行key-value形式的缓存你想要缓存的数据类型。这里选取其中一种分析: public void put(String key, String value, int saveTime)
Queue数据结构的极致使用 Zero-Copy 实际的原理,大家还是去Google下。这篇文章重点会分析这项技术是怎么被嵌入到Kafa里的。包含两部分: Kafka在什么场景下用了这个技术 Zero-Copy
了,知道程序怎么跑了,source code的精华你已经读了60%了,之后根据需要再对具体函数深入分析,到这里整个代码已经被你扒光了,没什么神秘了。 阅读代码有两种模式:top-down 和 bottom-up。Top-down