哈喽,大家好,我又来了。见字如面,每篇锤炼!最近ChatGPT发布后引爆各圈,网工界也很多人进行使用分享。我也做了点学习了解和简单体验。今晚我稍作思考,分享于你!
ChatGPT是人工智能研究实验室OpenAI发布的聊天机器人模型。它不仅能流畅地与用户对话,甚至能写诗、撰文、编码。查阅一些资料与报道,往往会提及这个模型具备GPT-3.5能力,并顺便会说GPT-4已在路上。
GPT-3英文全称Generative Pre-trained
Transformer 3,直译过来叫“生成式预训练变形器”。这个翻译似乎看起来有点别扭,我们可以简单理解为某个智能语言模型的第三代产品。前两代分别叫GPT和GPT-2,每一代都有质的突破。在自然语言处理领域,如翻译,GPT-3已经产生了重大影响。微软也有类似的模型,叫图灵NLG。
说到“图灵”一词,在人工智能领域我们会想到有名的“图灵测试”。怎么通过图灵测试呢?不是很严谨地说,比如我们跟某台机器聊天,感受不出是机器在交互,以为是与真实的人在交互。还好,当我与ChatGPT聊了“网工手艺”和真实人名时,它还是很诚实地告诉我它是一个训练模型。
我们中很多人都是从下围棋的AlphaGo开始了解人工智能的。它们的表现有时候让我们感到震撼。无论AlphaGo还是GPT,在我学习的认知中,它们还是在“以量取胜”,即我们所谓的变量、枚举、穷举法。这种模型要不拼训练数据,要不拼设备性能。这好比我们网络运维,容量不够则做堆叠,做集群,做聚合等,即堆加能量资源,通过能量换取信息(据资料说GPT-3有上千亿个参数)。
人脑呢?每个人就那么几斤几两,吃过饭撑了,读多点资料忘了,但却有无穷的能动性。两者似乎并不是走在一条道上的。人的智慧在于有意识地容错理解和逻辑推理上。我想,如果围棋棋盘缺了一个角少了一条线,人可能很快玩起来,而人工智能机器就得重新学习了。亦或者ChatGPT写出来的诗句很美,但它自身并不能理解这种美。亦或者文章中字序稍微打乱,人能良好阅读和机器智能又可能得重新训练了。
人工智能在网络运维领域中,部分或许有炒作概念之嫌,部分确有实际产能。有些项目尝试把大量线下的登记表(台账信息)和网络配置或实际状态之间做一个交叉训练,形成日常资源管理模型。有些项目尝试通过大量不同状态的照片(如机柜设备)进行训练,形成日常状态监控模型。不过,这些通通得有可训练的基础数据。而且,这些基础训练数据的逻辑体系中得是准确的,否则会训练出来一个错误的模型。
些许“遗憾”,网络运维中有很大一部分故障或隐患,恰恰没有基础训练数据,比如板卡倒针,比如鸳鸯线单通,资料偏差现场调整等。亦或者业务需要,我们主观能动性,巧妙地将某条哑资源纤芯腾挪出来。我想目前人工智能还是训练不出来的。
当我在ChatGPT上输入“TextFSM”相关内容时,它轻轻松松地反馈很好的示例内容。我想,我们可以把此类智能工具当成小助手,类似于更加友好的搜索引擎之用。亦或者在输出或创作的时候,与ChatGPT随意聊聊,激发灵感!当然,随着技术再发展再迭代,我们拭目以待!
有时候我们会听到,时代抛弃我们往往连“再见”都不说一声;有时候我们也会听到,纵观历史,每次技术革命都带来更多的就业机会,而不是收割劳动力。左顾右盼,好像都有点道理!不过它们的时间维度可能不同,“无情抛弃”是短时瞬间的,“带来更多”是过程迭代的,对象很可能并不是同一波人。
正如交流中有读者群友提到,网络运维中网工大部分时间和精力都花在找问题上,问题找到了,解决办法也随之而来。面对ChatGPT这个好工具(如果是真的),如果网工自身基础不够,往往连问题都问不出来。他一语点醒了我,非常感谢!或许,面对这些,我们得有点点系统论和控制论的思想,边学习边调整边前进吧!
今晚先分享这些,还有挺多其它感悟,后续将继续梳理分享。当我拥抱开源写作的同时,当然也是拥抱不同意见,拥抱善意批评,拥抱打磨调整的。
微信文章目录:https://zhuanlan.zhihu.com/p/570090654
我知乎总目录:https://zhuanlan.zhihu.com/p/370526806