国内加速 GitHub 代码克隆的一种方案
国内下载 GitHub 上代码一直是一件让人很头疼的事情,相信大家都深有体会。
最近偶然发现一个比较好用的解决方案,是采用http://gitclone.com的加速,这里记录一下。
具体来说,在仓库url中增加gitclone.com的前缀,别的地方不变,即https://github.com/修改为https://gitclone.com/github.com/,例如原始的clone命令是:
1 | git clone https://github.com/huggingface/transformers |
替换成下面的命令即可:
1 | git clone https://gitclone.com/github.com/huggingface/transformers |
实测基本上能做到1M/s的下载速度。
这种加速目前只支持git clone 和git pull 命令,所以适用于拉取别人代码进行本地查看的应用场景。
另外发现这种加速方式下载的仓库,有一些只有最新的一次提交,有一些则包含完整提交,原因未知。
此外,请确认克隆的代码是否与GitHub上一致,我们无法保证拉取的代码是否被修改过。
hangzhou-line1-benchmark-一个简单的图片理解问题集
谷歌Gemini和Gemma大模型的Python调用
GPT实用功能之润色README
今天发现GPT-4o对于GitHub Readme文档的润色还是很不错的,很自动添加一些花里胡哨的功能,看起来很fancy。
mimic-head-实时摄像头驱动图片动起来
整了一个快手人头驱动项目LivePortrait的demo,一键安装(自动下载模型),同时增加了官方demo中没有的实时摄像头驱动,也支持cpu和mps这两个后端了。
uv-速度飞快的pip替代
1. uv是什么
uv是开发ruff的公司 Astral 前一段时间发布的高性能Python工具,用途是安装python包,以及解析包版本之间的依赖。它的最大特点是快,相比现有的的工具都能够快一大截(如下图),
![[Pasted image 20240329074004.png]]
发布uv的愿景,是希望构造类似Rust的cargo,快速、可依赖,易用的包管理工具。
通过在不同的系统进行几个常见包的测试,uv相比pip,加速比在1~13之间,因此是一个值得一试的工具。
下面我先介绍一下uv的安装和使用,然后从一个普通用户使用pip的标准流程,尝试用uv替代pip,进行Windows, Linux 和macOS上实测速度对比,最后对uv发展的现状做一个说明,以及我的一些看法。
2023年终总结
2023年对我来说是一个惊喜的年份,因为可爱的女儿降生了。也是一个难言的年份,在零基础学带娃+长途通勤+家庭矛盾+工作压力的组合作用下,时常burnout,切身体会到人到中年的不容易。好在娃娃的每一个笑容都如此治愈,陪我度过艰难的2023。
talkGPT4All 2.5-更多模型以及更加真实的TTS
1. 概述
talkGPT4All是基于GPT4All的一个语音聊天程序,运行在本地CPU上,支持Linux,Mac和Windows。它利用OpenAI的Whisper模型将用户输入的语音转换为文本,再调用GPT4All的语言模型得到回答文本,最后利用文本转语音(TTS)的程序将回答文本朗读出来。
今年4、5月份的时候,我发布了talkGPT4All 1.0版本和2.0版本,链接见下:
talkGPT4All: 基于GPT4All的智能语音聊天程序
talkGPT4All 2.0:现在支持8个语言模型了
大家反馈最大的问题是TTS太机械了,听着很难受(具体可以看前面两篇文章的评论区)。而最近TTS领域的进展很多,例如很受欢迎的 coqui-ai的TTS 库,提供了TTS、声音克隆和声音变换的功能。上周末尝试了一下,发现内置了一些开箱即用的TTS模型,刚好可以集成到 talkGPT4All 中,解决目前采用的 pyttsx3合成声音太机械的问题。
AI小实验:大语言模型能否帮助我们理解古诗?
昨天在读龚自珍《己亥杂诗》的时候,看到一句“千秋名教吾谁愧?愧读羲之誓墓文”,怎么想都想不明白这句什么意思。
突发奇想,既然大语言模型进展突飞猛进,能否帮助我来解读这句诗是什么意思呢?

