GeminiChatMap Privacy Policy

Thank you for using Gemini-Chat-Map (hereinafter referred to as "this Extension"). We value your privacy and data security highly. This Privacy Policy aims to clearly explain how this Extens ...

AI产品的诞生

AI 产品的诞生,我们就假设是一个模拟角色对话类的 AI 产品。 第一步就是模型选择,其实就是 LLM 类的模型选择,之前我总有一种错觉是,这种模型会很大,但是其实并不然,像很多模型其实并不大,至少比我想象的要小,7、8B 参数量基本上就能满足要求,这种参数量我们的自己的 PC 都能带动起来。 选模型的过程会占用很多时间,如果对模型要求并不高的话,其实找一些常见的模型,比如 LLama,MIs ...

AI正在替代基础的编程知识库

端午节前两周,我主要的工作放在模型搭建部署和测试上,期间需要看明白和写一些 Python 语言相关的程序。 按照以往的经验,学习编程语言要开始打基础,了解这些编程语言相关的基础语法,比如之前(23年)学习 JAVA 的时候,我会在印象笔记里建一个笔记,专门存放我学过的 JAVA 相关的语法。 但是到了学 Python 这里,我已经开始不再纠结于基础的编程语法,并不是说基础的编程语法 (比如条件 ...

我们用眼睛认识世界,但靠大脑理解社会

说来有些惭愧,很多年来我一直对“抽象”和“规律”这两个概念感到困惑。 刚工作的时候,老大经常对我说,你把这段代码抽象出来,我就感觉有点困惑,啥是抽象。对于一个程序员来说,不明白抽象这俩字真是要命了,因为抽象是面向对象的核心思想之一。随着编程不断的深入,我也能比较深刻的理解到抽象这两个字的含义。 上学的时候,我也特别不理解,什么是历史规律。我记得当年看明朝那些事的时候,作者讲到朱元璋废除丞相制度 ...

对端模型的一些理解

之前的文章聊过手机嵌入端模型的一些趋势 AI大潮来袭,移动开发迎来第二春?最近做的需求正好是将端模型引入到了我们的应用里。 大家知道模型种类有很多,有语言模型,生图模型,生视频模型,其实理论上来说有多少业务场景,就会有多少种模型的出现。我们做的是将 Text To Speech 端模型引入到移动端,来降低语音生成的过程对服务端的依赖,同时完成降本。 不过在实践过程中还是踩了一些坑。 模型文件下 ...

环境是如何塑造我们人生观的?

好几年之前在油管上关注了一个学前端的温州妹子,当时她还是在加拿大工作,后来她回了上海工作,最近又重新关注到她,发现她已经回家创业了,而且做的有声有色。 我之前在手机公司上班的时候,有一个同事也是温州的,他是公司的创业元老,手里大把公司的期权,然而在当时公司看起来已经快要走出财务困境的时候,他也离职回家创业了。 我队友认识的一个温州妹子,她妈妈是很能折腾的一位女性,之前一直在从事移民相关的生意, ...

Kindle焕发第二春了

去年年中的时候 Kindle 已经没有办法再下载云端的图书,也没有办法再通过发邮件的方式去向 Kindle 发送图书。这就导致,如果想要往 Kindle 里同步书的话,就必须插上USB线去同步,这就很繁琐,而且有的时候把书拖到 Kindle的目录下,莫名其妙还是看不了... 正好去年我对苹果的阅读软件感兴趣,于是把阅读这件事放在了iPhone和 mac 上,苹果对图书同步做的确实还挺好的,电脑 ...

梳理了六点做事原则

同时只做一件事。可能有的人是可以同时完成很多件事情,以及当对某件事情很熟练的时候,很多人也可以大概做到一心二用,但一心二用不是普适的做事方式,专心把手头的工作做好,可能有的时候看起来效率很低,但绝大多数时候,慢即是快。 先想后做。任何事都是两步创造,脑子里对要做的事情有一个大概的框架,想清楚怎么做之后,做起来的时候脑子里就不会陷入犹豫和内耗。这个想的过程可以通过写作的方式完成。 ...

十点关于AI工具的想法

得用发展的眼光看AI。AI的发展太快了,半年甚至几个月之前你觉得AI做不到的事情,现在再去尝试可能已经能做到了,所以眼光不能停留在过去。半年之前你能想到Cursor这么牛逼? 端部署模型可能会是未来的趋势,现在端上部署模型还是差点意思,比如deepseek那个1.5b量化到4bit的生成效果就差点意思,但是手机硬件会越来越好,量化甚至整个模型的训练过程都会朝着更精简的方向去。毕竟 ...

几点关于AI的常识

推理模型和指令模型的作用是不一样的。xx-R1 是推理模型,xx-V1是指令模型。推理模型和指令模型的侧重点是不一样的。大多数场景其实根本用不到推理模型。 参数模型越大,模型文件越大,文件模型越大就只能在服务端部署,本地部署的都是比较小的模型,比如1.5B的模型。641B的模型就只能在服务端部署。 参数量越大的模型效果越好,类似参数越大记忆的东西越多,输出会更加准确, ...