上一页

点击功能呼出

下一页

添加书签(永久书签)
自动赚金币(点击查看)
听书 - 科研系学霸
00:00 / 00:00

+

-

语速: 慢速 默认 快速
- 8 +
自动播放×

成熟大叔

温柔淑女

甜美少女

清亮青叔

呆萌萝莉

靓丽御姐

温馨提示:
是否自动播放到下一章节?
立即播放当前章节?
确定
确定
取消
A-
默认
A+
护眼
默认
日间
夜间
上下滑动
左右翻页
上下翻页
《科研系学霸》第5章 不好意思,我打断一下。(2/2) 1/1
上一页 设置 下一章

上跑不动,或直接装不下。

2.速度滞后:即使勉强能跑,响应速度也慢,用户体验差。

3.能耗巨大:小设备电池续航有限,大模型会迅速耗尽电量。

4.网络依赖:依赖云端意味着有延迟,且断网就失效,隐私也难以保障。”

“不好意思,我打断一下。”

“老师您说。”

“你刚才提到了这些大模型性能虽强,但资源消耗巨大,而现在你想把这些大模型塞进小设备里,其中的难点我理解,

但是,既然这些顶尖大模型在云端表现如此出色,为什么我们非要执着于把它们硬塞进边缘设备?

云端计算的便捷性和可扩展性难道不更符合ai发展的趋势吗?边缘部署的必要性到底有多强?”

这个问题问的非常刁钻,如果周昀不能回答,那就算是从根本上否定了研究的必要性。

“老师的问题确实非常关键,如您所言,云端大模型在性能和可扩展性上确实有无可比拟的优势,

但是大模型的基石是数据!

在金融、医疗、国家安全等高度敏感的行业,数据“不出境”或“不出厂区”是严格的法律法规要求。

这种情况下,任何云端的数据传输都是具有一定风险的,虽然其有强大的安全措施,但其本身就是一个巨大的‘靶心’,

一旦云服务遭受网络攻击,影响范围可能是灾难性的,这一点相信老师肯定是有所了解的。”

广告是为了网站能更好的持续运营
滑动可继续阅读 >>

上一页 设置 下一章
温馨提示:
是否自动播放到下一章节?
立即播放当前章节?
确定
确定
取消
pre
play
next
close
自动阅读

阅读设置

5
返回
X