找回密码
 加入慢享
猜你喜欢
旅行常客论坛

分享|蓝翼最近薅到的最好玩的羊毛。

[复制链接]
发表于 2024-6-19 14:33:23 | 显示全部楼层 |阅读模式

前几天的 WWDC24,最大的亮点可能就是 iOS 的 AI 功能;看来从 2022 年 11 月 ChatGPT 正式亮相以来,老牌巨头被倒逼着纷纷仓促上马。谷歌的 Gemini 经过几轮更新,现在终于「能用」;Meta 推出的开源 Llama 口碑倒是不错,微软自不必说,Copilot 背后就是 OpenAI;如今轮到 Apple,也不得不寻求 OpenAI 的支持,只是国内花落谁家还未可知。

说起来国内厂商在这块也没闲着,阿里推出了通义千问百度推出了文心一言,讯飞推出了星火,而新生势力月之暗面则借着 Kimi.ai 崭露头角……

熟悉的读者都知道,蓝翼对这块一直很感兴趣,从最早的 ChatGPT 就在试用。最近得闲,更是开始尝试做一些基于这些大模型的小产品开发:一方面是为了提高自己的效率,另一方面也在考虑,能不能做一些给读者们服务的功能,毕竟选卡助手的更新已经拖了好久。

做 AI 的应用,少不了要薅大厂的羊毛。这里不得不夸下字节跳动,它推出的豆包算是国内第一梯队了,可惜之前获取不到 API 没法玩耍;最近不声不响的开始对于个人上线了,并且大方的给了每个模型 5 亿 token(目前总计为 30 亿)。重点是不设有效期,不像阿里通义千问,只给了 400 万个,并且限你 30 天用完。不过豆包大模型会收集你的输入数据,可别在上面敲非法词哟。

蓝翼认为:如果个人用的话,字节跳动的「豆包」足够撑到 2~3 年时间,大家如果也热衷于搞一搞免费的 AI 大数据模型,不妨试试「薅一薅」豆包?

个人注册「豆包」攻略


首先,豆包依托于字节跳动的火山平台 —— 你可以理解为阿里云、腾讯云;它的登录入口是:https://console.volcengine.com/auth/login/

如果你有抖音/头条/飞书账号,那么可以直接扫码注册;没有的话则可以用手机或者邮箱注册。注册之后得要实名哟。

然后进入火山方舟管理控制台:

https://console.volcengine.com/ark/region:ark+cn-beijing/openManagement

点击红色按钮①,开通服务。

接下来,全选下面的项(红色按钮①),然后点击(红色按钮②)开通服务。

再进入火山方舟管理控制台,这个时候就可以点右上角的「去参加」(红色按钮②啦,满屏都是闪亮的小字「您的免费推理额度将提升 1000 倍(新增 5 亿 tokens)」,满心欢喜。

完成上面步骤后,我们来申请 API Key


注意,API Key 一定要保存在私密的地方哟。


点一下「睁眼」,把 API Key 的内容复制下来。


接下来去申请模型推理接入点,蓝翼在这里已经申请了三个,就拿这三个给大家做个示范吧。同时需要注意:虽然 Doubao-pro-4k / browsing-240524 看起来似乎已经支持网页摘要,但是蓝翼在调试过程中发现还是网页摘要还是连不了网,估计还得等等?

而在模型版本中间,蓝翼建议一开始选最后的那个因为它适合处理复杂任务。


再到模型推理中复制模型,这样需要的参数就复制全啦。


那么,好不容易申请的 AI 接口,怎么用呢?让蓝翼告诉你几个快速消耗「豆包」的妙招。

用 AI 能做些什么?:


首先是语言翻译,这个在阅读海量英文资料的时候特别有用,毕竟大家母语都是中文,在需要高效检索资料的时候还是中文最溜

在英文翻译方面,蓝翼首推「沉浸式翻译」,在浏览网页的时候,你会发现它非常有用!先放一个网址:https://immersivetranslate.com/

「沉浸式翻译」是一个通过插件来安装的应用:Edge / Chrome / Firefox / Safari 全都覆盖,并且还有 iOS 和 Andriod 版本,只要配置一下即可完成,具体方式如下:

由于豆包兼容 OpenAI 接口,因此只需改动一下便可,API Key 自不用说,复制过来就行。而模型这个地方要选「输入自定义模型名称」,输入 ep 开头的模型,还有最重要的一点:展开底下的「展开更多自定义选项」,设置「自定义 API 接口地址」为如下值:

https://ark.cn-beijing.volces.com/api/v3/chat/completions:

还有一个打工最爱的功能:AI 大模型可以写工作周报,你对它说「请帮我写一篇工作周报,内容包括:xxx 以及 xxx,还有 xxx」,它就能够帮你写出一封蛮像模像样的周报来;而且 AI 大模型的总结性很好,这倒是值得大家挖掘的。至于程序员们也早早的用上了 AI 大模型,代码写的越来越快,如虎添翼(可以留出时间来摸鱼

豆包大模型的特点是:在免费流量用完之前免费,而且反应速度,这也是蓝翼想把它作为英文翻译中文的方式。这便是蓝翼想出来的几个能利用 AI 大模型给大家「赋能」的地方。

结语


从蓝翼的经验来看,使用 AI 的前提还是需要明确自己的需求,因为 AI 大模型需要用户主动提问,对问题的质量要求也很高。这对习惯了在 App 里面刷刷刷,被大数据喂内容的网络用户来说,可能有点难度。所以现阶段真正用 AI 大模型的国内用户并不多见,一方面是产品缺乏,另一方面可能是用户习惯和行为养成的问题。

至于哪家的大模型好,蓝翼认为现在的 AI 行业本质上来说还在百家争鸣阶段,最后鹿死谁手尚难定论。就好比十几年前那场「千团大战」一样,领跑的往往笑不到最后;要知道糯米网作为首家团购的上市公司,却草草散场。不过说来,成立一家团购比起成立一家 AI 公司的门槛要小的多的多,毕竟 NVIDIA 卖 GPU 数钱乐的笑开了花

你的工作和生活中用到 AI 大模型产品了吗?分享下你的经验?


欢迎 关注 和 收藏 蓝翼的公众号

分享、点赞、在看三连起来!

回复

使用道具 举报

快速回复 返回顶部 返回列表