阅读更多
CodeBunk是一个实时的、在线的代码协作编辑、编译平台,便于开发者协同开发。

项目页面:http://codebunk.com/

CodeBunk提供了三种账号登录方式——Github、Facebook、Twitter。登录后,看到的就是一个编辑页面。目前CodeBunk支持Python、JavaScript、PHP、Ruby 1.8/1.9、Perl、Lua、C和C++,在左侧窗口输入代码,点击【Run】即可在右侧输出运行结果。


点击【share】按钮,会给你一个URL,将这个URL发给别人,即可邀请他参与代码编写,你可以在窗口中实时看到他的操作。

此外,CodeBunk还提供点对点视频聊天工具,点击下方的【Show Chat】即可弹出视频窗口。

类似的工具还有Codassium,你可以通过《企业如何远程招聘到靠谱的程序员?》这篇文章来了解。
  • 大小: 47.1 KB
2
0
评论 共 0 条 请登录后发表评论

发表评论

您还没有登录,请您登录后再发表评论

相关推荐

  • 易语言应用中文分词

    易语言应用中文分词源码系统结构:中文分词, ======窗口程序集1 || ||------_按钮1_被单击 || || ======功能程序集 || ||------中文分词

  • 自然语言处理NLP中文分词,词性标注,关键词提取和文本摘要

    详细讲述了自然语言处理中预处理步骤的常用方法

  • jieba中文分词应用

    应用结巴分词工具对某文件进行中文分词。加载自定义字典,字典里面的专有名词在分词时就不会被切割

  • 全文检索lucene中文分词的一些总结

    全文检索lucene中文分词的一些总结   全文检索几乎是所有内容管理系统软件(CMS)必备的功能,在对公司的CMS产品的开发维护过程中,全文检索始终是客户重点关注的模块,为满足客户各式各样越来越高的要求,对全文检索曾做过一段时间相对深入的研究,尤其是对分词机制,趁如今换工作比较空闲之际做个简单总结。   1、 什么是中文分词 学过英文的都知道,英文是以单词为单位的,单词与单词之间以空格...

  • NLP|中文分词技术及应用

    摘要:中文分词是中文信息处理的重要基础,本文详细阐述了目前主要的几种中文分词算法的技术原理 、中文分词目前的瓶颈和评价准则,以及中文分词的具体应用。 中文分词指将一个汉字序列切分成一个个单独的词。现有的中文分词算法有五大类:基于词典的方法,基于统计的方法,基于规则的方法,基于字标注的方法,基于人工智能技术(基于理解)的方法。中文分词目前主要有四个瓶颈,分别是分词歧义、未登录词识别、分词粒度问题、错...

  • 打造通用ASP.NET数据分页控件

    对于几乎所有的数据表现Web应用来说,组织好数据的显示方式、避免给用户带来混乱的感觉就是最主要的目标之一。每个页面显示20条记录当然是可以接受的,但每页显示10000条记录就很容易给用户带来不便了。将数据分成多个页面显示,即对数据进行分页,是解决此类问题的最常见的办法。   一、慨述   ASP.NET本身只提供了一个支持数据分页的控件,即DataGrid分页控件,不过它比较适合Intranet环

  • 学习,研究,工作,灵感——学习过程其实是一张网

    进行比较简单的学习时,专家或者教师往往给初学者这样一种建议:以学习Java为例,初学者最好学习C语言,掌握基本的语言概念;然后编写Java版的helloworld,然后学习基本的java.lang, java.util库,在学习的过程中不断体会OO的概念;然后根据需要,学习某一方面的如网络,UI, WEB等等……很明显,这是一个箭头状的直线学习图。但是实际上没有人纯粹的依赖这些建议或指导来学习

  • 学习笔记-基于语言模型的中文分词器

    1、中文分词 中文分词的使用场景:搜索引擎、新闻网站 体验分词:http://ai.baidu.com/tech/nlp/lexical 常见分析方法: 词典的机械切分 模型的序列标注 中文分词的难点: 歧义切分 未登录词识别(新词) 2、语言模型 2.1原理 一个句子是否合理,就看它的概率大小如何,我们可以将一个句子表示为词的联合概率,并用条件概率公式写出来,可以使用频率估计条件概率,复杂的条件概率比较难计算,马尔可夫假设被提出,句子的联合概率可以被改写成N-Gram形式的条件概率,语言

  • 自然语言处理简介(1)---- 服务梳理与传统汉语分词

    1.Nlp技术体系简介 1.1 基础技术 1.2 Nlp 核心技术 1.3 NlP+(高端技术) 2.知名NLP 服务系统简介 2.1汉语分词系统ICTCLAS 2.2 哈工大语言云(Language Technology Platform,LTP) 2.3 Amazon Comprehend 2.4 阿里云NLP 2.5 腾讯云NLP 2.6 百度语言处理基础技术 2.6.1 功能丰富且...

  • 图数据库Neo4J 中文分词查询及全文检索(建立全文索引)

    Neo4j的全文索引是基于Lucene实现的,但是Lucene默认情况下只提供了基于英文的分词器,下篇文章我们在讨论中文分词器(IK)的引用,本篇默认基于英文分词来做。我们前边文章就举例说明过,比如我要搜索苹果公司?首先我们要做的第一步在各个词条上创建全文索引,第二步我们根据苹果公司进行全文检索,把匹配度高的按顺序输出。下边我们一步步讲解怎么做。

  • 中文分词技术及应用

    中文分词技术及应用 中文分词算法有5大类: 1、 基于词典的方法 2、基于统计的方法 3、基于规则的方法 4、基于字标注的方法 5、基于人工智能的技术(基于理解)的方法 中文分词目前有4个瓶颈: 1、 分词歧义 2、未登陆词识别 3、分词粒度问题 4、错别字与谐音字规范化 中文分词有5大评价标准: 1、分词正确率 2、切分速度 3、功能完备性 4、易扩展性与可维护性 中文信息处理包括3个层...

  • PHP 实现中文分词搜索功能

    中文分词介绍众所周知,英文是以词为单位的,词和词之间是靠空格隔开,而中文是以字为单位,句子中所有的字连起来才能描述一个意思。例如,英文句子I am a student,用中文则为:“我是...

  • 中文分词_中文分词及其应用

    一、中文分词原理中文分词是指将一个汉字序列切分成一个一个单独的词。分词就是将连续的字序列按照一定的规范重新组合成词序列的过程。现有的分词方法可分为三大类,分别是基于字符串匹配的分词方法、基于理解的分词方法和基于统计的分词方法。(一)基于字符串匹配的分词方法基于字符串匹配的分词方法又称机械分词方法,它是按照一定的策略将需要分析的中文字串与一个“充分大的”机器词典中的词条进行匹配,若在词典中...

  • 中文分词之结巴分词~~~附使用场景+demo(net)

    常用技能(更新ing):http://www.cnblogs.com/dunitian/p/4822808.html#skill 技能总纲(更新ing):http://www.cnblogs.com/dunitian/p/5493793.html 在线演示:http://cppjieba-webdemo.herokuapp.com 完整demo:https://github.com/duni...

  • 细说中文分词

    完整的中文自然语言处理过程一般包括以下五种中文处理核心技术:分词、词性标注、命名实体识别、依存句法分析、语义分析。其中,分词是中文自然语言处理的基础,搜素引擎、文本挖掘、机器翻译、关键词提取、自动摘要生成等等技术都会用到中文分词,包括最近在学习的聊天机器人、文本相似性等。可以说分词是自然语言大厦的地基,下面就让我们从它开始谈起。 什么是中文分词 中文分词就是将中文语句中的词汇按照使用时的...

  • 中文分词在大量数据模糊查询中的应用

    最近在做建筑行业相关的项目,遇到的一个应用场景是解析材料名称。由于输入的数据中材料名称非常不规范,而且数量量又非常大,所以处理起来比较困难。 名称不规范的意思是,比如标准材料叫:“圆钢”,材料中出现的名称有:“钢筋圆钢”,“圆钢HPB300”,“钢筋 圆钢(≤Φ10)”等等,也就是说材料名称前面或者后面很多修饰语(一般情况是前面是材料分类,后面是型号信息)。 一般的思路就是关键字匹配,但是由于

  • 使用Python做中文分词和绘制词云

    使用Python做中文分词和绘制词云 李小璐出轨云词图 作为一门编程语言,Python的编写简单,支持库强大,应用场景多,越来越多的人开始将它作为自己的编程入门语言。 Python一个比较重要的场景是做舆情分析,比如分析社交网络上群众对某一话题的态度,分析股民的情绪作为投资参考等。最近笔者也做了一些舆情分析(八卦)方面的工作,一个完整的分析流程包括: 数据获取:使用爬虫在相关网站上获取

  • 10大Java开源中文分词器的使用方法和分词效果对比

    原文地址:http://my.oschina.net/apdplat/blog/412921 本文的目标有两个: 1、学会使用10大Java开源中文分词器 2、对比分析10大Java开源中文分词器的分词效果 本文给出了10大Java开源中文分词的使用方法以及分词结果对比代码,至于效果哪个好,那要用的人结合自己的应用场景自己来判断。 10大Java开源中文分词器,

  • 中文分词 及发展现状(总结的不错)

    中文分词 (Chinese Word Segmentation) 指的是将一个汉字序列切分成一个一个单独的词。分词就是将连续的字序列按照一定的规范重新组合成词序列的过程。我们知道,在英文的行文中,单词之间是以空格作为自然分界符的,而中文只是字、句和段能通过明显的分界符来简单划界,唯独词没有一个形式上的分界符,虽然英文也同样存在短语的划分问题,不过在词这一层上,中文比之英文要复杂的多、困难的多。

Global site tag (gtag.js) - Google Analytics