书本网 > 都市小说 > 职场小聪明 > 第514章 用steamdeck安装AI大模型的体验,gpt4all

第514章 用steamdeck安装AI大模型的体验,gpt4all(1 / 1)

推荐阅读: 回到03:给校花施施肥,润闰土 契神兽,炼神丹,众神膜拜九少爷 科研式修仙,从拒绝炉鼎开始 规则怪谈:开局添堵技能,心累 少爷,只求财,不求爱 漂亮小哑巴被阴鸷大佬盯上了 夜深知雪重 兵王的黑道生涯 王大力捉奸之后 丫鬟清锁 崩坏:从黄金庭院开始 凡骨:练功就涨熟练度硬肝成武圣 英雄无敌:开局我创造一个种族 生物电脑 我和七个姐姐在荒岛求生 大夏第一武世子 无限:杀穿电影世界 新爱来袭 葬天 典狱长大人深不可测! 谍战:我当恶霸能爆奖励! 四合院:傻柱开局瞎眼走新路 去灭诡啊,盯我一个学生干嘛 身份曝光后,岳母来跪舔 综影视:狐狸精在后宫杀疯了 从蒙德开始的格斗进化 恐怖噩梦:我有一对鬼眼 惊了!随手搭救的少女是同校学姐 沈大人请自重 疯批丫头的糙汉老公非人类 综影视知名贤惠人小秦氏穿越之旅 快穿:白月光她完美演绎救世成功 双系统特工大佬,带团队勇闯异世 九劫剑塔 疯批千金在线吃瓜 末世:不做奴隶舔狗进化大爱世界 年代:我在58有块田 假面骑士:完蛋!我被美女包围 官道青云梯 我创造了赛博修仙 网游:蓝星online 洪荒,穿越之后 神魂归:绝世帝女她开始虐渣了 大夏剑术,谁主沉浮 律师:霸凌者无罪?我送他死刑! 东北道门阴阳路 落榜?然后被大小姐们包围! 隐婚后,豪门继承人天天求公开 失败婚姻挽救局 都追绿茶女主?那恶毒女配我要了 东汉末年:黄巾军他不长这样啊! 绝品小媳妇 崩坏:坏了,我成侵蚀律者了? 柯南之组织没了我迟早要完 穿成年代文中的拖油瓶 嫌我穷分手,我成曲圣你哭什么? 锦衣卫皇帝跑路了 关于我魂穿汉末玩争霸这小事 疯了三年,出世即无敌 穿进洞房被撵,丑女带着空间雄起

看到这个标题,你可能会觉得是噱头。谁不知道chatGpt模型有1750亿以上的参数,别是在笔记本电脑上跑,就是使用高性能GpU的台式机,也无法带得动啊。老老实实调用ApI不好吗?其实,LL(大语言模型)有非常宽泛的参数量范围。咱们今介绍的这个模型Gpt4All只有70亿参数,在LL里面现在算是妥妥的巧玲珑。不过看这个名字你也能发现,它确实是野心勃勃,照着chatGpt的性能去对标的。Gpt4All基于ta的LLaa模型训练。你可能立即觉得不对,你这跟Gpt有啥关系?为什么要无端蹭热度?且慢,Gpt4All确实和chatGpt有关——它用来微调的训练数据,正是调用chatGpt产生的大量问答内容。我怕你对技术细节不感兴趣,因此只用4All其实就是非常典型的蒸馏(distill)模型——想要模型尽量靠近大模型的性能,又要参数足够少。听起来很贪心,是吧?据开发者自己,Gpt4All虽,却在某些任务类型上可以和chatGpt相媲美。但是,咱们不能只听开发者的一面之辞。还是试试看比较好,你是吧?深度神经网络由多个层组成。每一层包含处理输入数据并通过非线性激活函数(Sigoid或ReLU)传递给其他层的神经元。每一层的输出会传递给另一层,在传递给下一层进行进一步处理之前,这一层会对这个中间表示进行某种操作。这个架构可以分为两个主要部分:输入层和输出层。输入层-这表示一组输入,这些输入被送入人工神经网络(ANN)作为训练数据或测试数据,然后由深度学习算法使用,以根据历史信息(例如过去的交易等)预测未来事件\/结果,这一过程使用输入层及其相关权重。输出层-这表示一组输出,这些输出在经过人工神经网络内部的各个层(例如卷积神经网络、循环神经网络或长短时记忆网络)处理后被送回到ANN中,然后由深度学习算法使用,以根据历史信息(例如过去的交易等)预测未来事件\/结果,这一过程使用输出层及其相关权重。深度学习模型的架构可能会因各种因素而有所不同,例如数据类型、特征数量、目标变量或正在解决的分类问题。transforr是一类深度学习架构,在自然语言处理(NLp)和其他领域中已变得非常流行,这归功于它们强大的性能和可扩展性。transforr首次在Vasani等人于2017年发表的论文\AttentionisAllYouNeed\中被介绍。transforr基于自注意力机制,这使它们能够捕获长距离依赖关系并在序列中建模复杂的模式。自注意力机制:transforr的核心是自注意力机制,它允许模型衡量每个输入标记与序列中每个其他标记的关系的重要性。这是通过使用三个可学习的向量实现的,分别称为查询向量(q)、键向量(K)和值向量(V)。自注意力机制计算每对标记之间的注意力分数,然后用于生成值向量的加权和。多头注意力:transforr使用多头注意力来捕捉输入序列的不同方面。多头注意力层中的每个\头\都独立执行自注意力,并生成自己的输出。这些输出然后被连接并线性转换以创建多头注意力层的最终输出。看到这里,你可能已经怒了——有这么比的吗?!你拿一个如此精致的模型Gpt4All(70b)跟Gpt-4这样的大怪物去比。Gpt-4胜之不武,我为Gpt4All鸣不平!且慢恼怒,我想表达的意思是这样的:如果一个模型真的能达到蒸馏浓缩的作用,那么显然体积的显着减是重大优势,毕竟这意味着训练和应用成本降低,速度显着提升。但如果模型缩以后在解决问答、解释和编程能力上和大模型相比差距显着,那么我们就不能武断地模型「性价比」更高了。有研究证实过在「有人类调教的情况下」,60亿参数的模型甚至可以在某些任务上面击败1750亿参数的大模型(ouyaal.2022)。只不过,这里的比较并不公平——它指的是模型有人工调教,而大模型缺乏调教的情况。chatGpt不缺乏调教,因此我们并没有看到Gpt4All能够以少量的参数达到chatGpt这么好的性能,即便它充分使用了chatGpt的输入输出数据。训练大语言模型时,多大的语料会使得模型对外部世界真实认知产生质的飞跃(可以在各项任务上都有好的表现)?目前的经验是300亿单词的输入量(Zhaal.2020)。但是大语料需要足够高的模型复杂度来承载。模型相对输入数据过于复杂固然不好(过拟合,over-fittg)。然而一个太的模型在面对大数据的时候,也会力不从心(欠拟合)。大和是需要相对判断的。目前的Gpt4All在一众巨无霸面前,无论如何也是个模型。chatGpt这样的大语言模型让人们惊诧的地方,在于它能够有自己的「顿悟时刻」。这种「顿悟时刻」如何出现的?现在学术界还在研究郑但是有很多证据指向一些提示语(例如「一步步来」stepbystep)能够激活大语言模型的cha-of-thought(思维链),从而有助于解锁「顿悟」般的逻辑推理能力。不过研究者同样证明了,这种「魔法」提示语有效的前提,是模型的参数量需要达到1000亿的规模(eietal.2023)。chatGpt的参数超过了这个阈值,而Gpt4All还远得很。当然不是。如果你把Gpt4All看成某种终极形态,那么等待你的可能是从激动快速跌落到失望。但是比较一下初代iphone和iphone4S,你就能感受到短短几年间,技术进步带来的产品性能差地别。更何况,现在的AI进展速度,可不像iphone一样「一年一更」。即便从短期来看,Gpt4All也有其用途。在我们的测试中,它在写作上还是有能力的。Gpt4All不需要付费调用token,也不需要把数据传递到远端进行处理。对有些使用目的(例如保护公司机密数据)而言,Gpt4All这样的模型出现,关乎的可不只是「好用」与「不好用」,而是「能用」和「不能用」的分水岭。对于很多机构的事务性工作而言,复杂的逻辑推理能力其实只是锦上添花。若是能完美解决日常单项任务,收益也已经十分显着。请你在试用之后,依然对Gpt4All保持一份耐心。也许不久以后,我们每个饶电脑和手机上,都能运行一个随时待命的优秀助理,帮助我们做许多从前想做,但是一想到要做就头疼的任务

最新小说: 做最凶的那个 换挡人生:从平凡驾驶到宦海沉浮 【阴卦天师】之东岳神宫 久伴不及白月光,我选择放手 韩娱,我才不要做舔狗 万古仙尊:废柴的逆天修行录 成为首富,从老妈闺蜜开始 恋爱要在拯救后 修仙,从凶宅试睡员开始 六零:我靠打猎天天吃肉,无赖后妈悔又馋 时空食堂:开局喂饱朱元璋 重生财路:逆袭成为金钱巨头 高武:我有个自助流异能 重生1987,从县医院开始外科成圣 反派重生,一天拿下男主白月光 我的异能会修炼 抗战从影视我的团长开始 前方异常 御兽行于时代洪流 穿书反派:开局截胡主角女友 雨夜后,陷入黑道女王的宠溺陷阱 觉醒了虫族系统,被迫当大反派 狱中十七年 让你重生复仇,你和女总裁契约结婚 南洋沈氏豪门家族的时代传奇 我居然成了资本家 重生63:赶山我超猛! 60年代:我靠增幅躺赢采购科 御兽:欺我母弱?我自化天灾! 重生80,娶了异瞳小娇妻 网游传奇:我有至尊VIP 抗战:开局德械加强营 不是,大佬他把华尔街干穿了? 女尊:我和我的大只老婆日常 杀人者的认罪法,人形恶魔审判! 傲娇校花学姐,竟是隐藏恋爱脑? 我睡梦中穿越了 灵气复苏:剑途 开局获得不死异能,来打我呀! 洞悉弱点,我爆打神明很合理吧? 半岛:我成了兔的第十人 抗战:这是溃军?分明是美械师! 十七八间 重生:枪断万古,我为人族挽天倾 女总裁的顶级狂婿 降龙传 行走诸天,搜刮万界 我真不是翻译 偏心假少?我在星门打怪道法滔天 让你唱红歌,你开舰载机干航母 社牛加直男,斩不完的恋爱脑 九阶收尾人也能成为都市之星? 四合院我易中海才不要做道德婊 御兽:让你御兽,没让你御女啊 都市极品医仙 赶海:赚钱娶美女,人生赢家! 七十二蛊我在千年苗寨风生水起 变强从被绿开始 江湖情长 2050:比特币之死