1.在网上找人做了一个网站,明明明明担心被骗,源码源码客服说源码这些都给你,多少他们拿着也没用,明明明明是源码源码真的吗
2.这个浏览器明明超强却过分低调——小白主力换成火狐不完全调校指南
3.玩一玩通义千问Qwen开源版,Win11 RTX3060本地安装记录!多少文华 源码
4.KK源码网是明明明明骗子网站!!源码源码!多少
在网上找人做了一个网站,明明明明担心被骗,源码源码客服说源码这些都给你,多少他们拿着也没用,明明明明是源码源码真的吗
说法有一定的道理
但是这说明另一个问题,那就是多少他们如果习惯这么做,一般都会服务不好
除非收费很高
你要明白这里面的道理和关系
网站,服务,本身和源码归谁没多大关系。
但价格和管理模式,才是一个网站能不能稳定运营的关键。
我们做了十三年的企业网站运营,策划。见过太多太多的企业用户,其实网站很多时候本身没有问题,但是误操作却产生了巨大的影响。
比如有些时候,明明改一个就可以了,但是企业呢?自己并没有专业的网站技术人员,只是一个小客服,小秘书在打理网站。或许自己有点小经验于是就动手改代码,但是经验尚浅又没有备份习惯,改错一行代码,全站瘫痪。。。又不得不找技术公司售后服务,而这些,都是没有必要的,额外的售后成本付出。
小公司的网络公司客户少,可能无所谓,flink设计源码但是我们动辄都是几百上千个客户的时候,这种无谓的成本就显得很重要,不可能总去因为这些不必要的事,影响其他正常客户的服务。
所以并不是不给源码,也不是不给网站代码权限,而是在可以做到的时候没有必要拥有太高权限,权力越大,责任越大,如果没能力,尽量不要去过多干涉网站技术运作。
还有一点大家心里都明白的,如果说,你拿到代码就能为所欲为的情况,那你根本没必要要源码。。。既然你有那能力做代码方面的工作,那就有能力自己做网站了。。。对不对?无非是慢点,但是很多都是自己既没能力,又觉得略知一二。。。以为拿了源码就能代表什么。
其实你是不知道,对于一般的企业而言,我们有经验的网络公司,稍微加点技术,代码就算给你,你也不可能做其他用处。。。所以不要认为拿到代码能有什么额外的用处。
这也是一个正规的公司或团队必备的管理方案
如果一个公司不论价钱不论协议,随便谁都可以给源码
那就意味着,这个公司的业务是任人复制的,也就意味着你的网站,明天就有另一个副本,linuxcmake编译源码另一个公司跟你的一模一样。。。因为他们可以给你,就可以给别人。。。没原则可言。
对于服务而言,源码在哪是很重要的,像我们的客户,都会源码和服务器统一管理
服务器什么环境,代码什么状态,谁改了哪里,都一一记录在案。这样某天出现问题,可以最短时间内排查故障,恢复企业网络的运营。
但是你拿走了呢?
网站我们做好的,服务器你们自己去找,代码自己维护,突然出现问题了,问谁都说没动过。。。服务器环境,权限都不是我们的,代码哪里改过都不熟悉,本来一小时就解决的问题,甚至三五天都搞不定,还要各个不同公司,不同的人去协调,去配合。
这段时间的直接损失,间接业务影响,其实是企业的。
说了这么多,明白人可以看的出来其实最重要的不是代码,而是服务,所以对于企业要接入网络的时候,选择的钓鱼源码开发并不是你拥有什么权限,而是你能够得到什么样的服务,服务好,无论代码,服务器在哪,网站都会稳定的运转,花钱再多都是值得的。
但是!!!如果没能力,代码在哪,出了问题没人管,花钱再少也是最大的损失。
而且很多时候,并不是代码能够解决的问题。需要的是经验。
我们现在为企业做的网站,实现的都是智能四维系统,一个网站实现电脑网站+手机网站+企业微信公众平台+APP,全方位的网络支持。这样才能更好的接触 互联网+
而这些,不是说代码给你,你拿走了你就能维护的起来。。。需要很多运维经验和管理精力。
而对于企业而言,我们做好一切后备支持,企业只需管理信息数据即可。
用合适的成本,找合适的人,去做合适的事,这叫良性循环
不需要自己费心,才叫服务。。。什么都想要,什么都拿走,啥都得自己去干。。。winvista系统源码那叫负担。
您说呢。
这个浏览器明明超强却过分低调——小白主力换成火狐不完全调校指南
开源产品,如浏览器,因其免费、可定制、功能增强等优点而受到许多用户的青睐。我曾长期依赖第三方定制版浏览器,如CentBrowser,以满足个性化需求。这款浏览器提供了我所需的定制服务,包括登陆Google账户同步数据,且未夹带垃圾功能,用户体验良好。 然而,任何产品都不是完美的。使用个人开发者产品时,我们需意识到以下几点风险: 个人开发者产品的源代码开放,但稳定性、功能和bug修复依赖用户自己。 由于开发者可能面临经济收入问题,产品更新和维护可能不稳定。 第三方产品在长期使用后,可能无法及时迁移至新版本,导致更新成本高。 在CentBrowser更新速度放缓、内核逐渐落后于市场同类产品后,我开始考虑迁移至其他浏览器。由于CentBrowser的“特技”导致新环境导入后扩展失效的问题,我转向了Firefox。 Firefox提供了深度定制的可能性,且作为开源浏览器,具有良好的社区支持。我选择了Firefox Quantum版本,它采用Rust语言重写了底层架构,性能提升明显,且扩展生态逐渐完善。 在Firefox上,我执行了以下定制流程: 下载并解压Firefox Quantum V。 复制配置文件以保留官方界面。 提取并导入CentBrowser中的一些有用扩展。 从Firefox扩展商店下载额外的增强功能扩展。 调整界面设置,如隐藏不常用扩展、定制控制按钮位置等。 通过上述步骤,我实现了Firefox的轻度定制,以满足个性化需求。Firefox作为唯一能与Chrome抗衡的开源浏览器,其开放性和丰富的扩展生态使其成为个人开发者和用户的首选。玩一玩通义千问Qwen开源版,Win RTX本地安装记录!
大约两天前,阿里发布了一个重要消息。
他们开源了一个名为通义千问-7B-Chat的低配版大语言模型。
这可能是国内首个由大型企业开源的大语言模型。
虽然它是低配版,但在各类测试中表现优秀。
官方介绍称,Qwen-7B是基于Transformer的大语言模型,在超大规模的预训练数据上进行训练。预训练数据类型多样,包括大量网络文本、专业书籍、代码等。同时,基于Qwen-7B,我们使用对齐机制打造了基于大语言模型的AI助手Qwen-7B-Chat。本仓库为Qwen-7B-Chat的仓库。
官方还提供了许多测试结果。
例如,在C-Eval验证集上的得分对比显示,与同级别的羊驼模型相比,其得分“吊打”对手,甚至比热门的开源模型ChatGLM2也要高出不少。
此外,还有英文测评、代码测评、数学测评、长序列测评和工具使用能力测评等,全方位碾压同类亿参数模型,在即将开源的用于评估工具使用能力的自建评测基准上,居然战胜了GPT-4。
不管怎样,大型企业开源的东西总不会太差。这可能是最好的小型中文大语言模型。
阿里已经亮出态度,接下来压力给到百度、讯飞、华为... 哈哈~~
既然阿里都开源了,我们自然就笑纳了,接下就在本机跑一个试试。
以下是我在Win RTX G上完整的安装记录。玩过的可以跳过,没玩过的可以当个参考。
我的安装思路完全来自官网指引:
官方的安装指引看起来非常简单。只需安装modelscope这个包,然后运行一段Python代码即可。然而,世界上看似简单的东西,做起来往往都不那么简单。一步一坑是常态,踩过了,就简单了。
常规流程1:创建并激活虚拟环境。我们还是用常用的 MiniConda 创建一个虚拟的Python环境。
2. 安装modescope基础库
3. 编写Python代码
不需要自己编写,直接抄官方代码。
创建一个test.py文件,然后将代码粘贴到里面,Ctrl+S 保存代码。
4. 运行代码
运行代码很简单。上面已经激活了虚拟环境。然后用cd命令,进入到代码所在目录。然后用Python运行就可以了。
运行代码之后,会自动联网下载一个G的模型文件。
阿里毕竟是做服务器的,我在杭州,这速度真的是相当给力。不用魔法,就能飞起,这是搞国外项目,永远享受不到的待遇啊。
按正常的节奏来说,下载完大模型,然后运行代码。通义千问大模型就会乖乖的回答我预设的两个问题了。
但是...不可能这么顺利。
其实还有很多包还没装完,我就按我出错的顺序和解决方法,一个个来记录吧。
踩坑记录1:缺少transformers包
提示信息如下:
解决方法很简答,运行提示中的命令即可:
2. 缺少tiktoken包
提示信息如下:
解决方法:
3. 缺少accelerate包
提示信息如下:
解决方法:
4. 爆显存了OutOfMemory
终于所有包都装完了。
再次运行test.py
软件有条不紊的运行,好像有戏。可惜,最终还是卡在硬件配置上了。
见到了熟悉的OutOfMemory。
在大语言模型面前,G显存,啥都不是。
查了一下资料,BF需要.2G显存才可以运行...
遇到这种情况,没啥办法,只能用量化。官方也提供了4bit量化的代码,直接拷贝过来,搞了一个test2.py文件。
5. 运行4bit量化代码出错
错误提示如下:
大概就是量化的时候需要用到一个叫bitsandbytes的依赖包。
那就安装一下呗:
安装非常简单快速,没有任何问题。
6. 量化包不支持Windows
安装完依赖之后运行test2.py 很快就收到了如下错误:
这句话对于一个英语只过了4级的人有点难度啊。什么叫尽管有可用的GPU但是CUDA设置失败.... 你这句式是不是等价于,你有一个女朋友,但是不能用!
查了一下资料,bitsandbytes库目前仅支持Linux发行版,Windows目前不受支持。。。
还好上面的资料已经过时了,其实已经有大佬做了Windows版本。
7. Windows版量化包版本太低
为了解决上面一个问题,找到了一个Windows版本的依赖包。
安装命令如下:
安装完成之后,本以为完事大吉了。
还是太年轻...
错误提示如下:
这个问题出在两个方面,一个是这个包好像只支持8bit量化,而我代码里有用的是4bit。另外一个问题就是错误日志中提到的版本太低。
没办法,又是一顿乱找,狂开N个网页。
最后最终找到了可以用的版本。
安装命令:
终于安装成功0.版本
8 缺少transformers_stream_generator包
习惯了,习惯了。上面的都搞完了,又出现缺包提示。
解决方法:
9. Numpy不可用。
所有包装完之后,运行test2.py,眼看这要成功了,又跳出一个“Numpy is not available” 。
用pip list 查看了一下包列表,明明有这个包,怎么就不能用呢?
不管了,直接更新有一把看看。
把Numpy升级到最新版 :
安装过程出现红色提示:
内心凉了一半。
提示里面说modelscope需要的是1., 但是我装了1..2... 最怕就是这种版本问题了...
我也不知道该怎么排查,想着就死马当活马医了。
最后...居然成功了,这是~~什么道理~~!
通过日志可以看到,AI已经做出了回答。答案也正确且通顺。幸福来的太突然...
到这里,我就成功的在我的Rtx G上面把“通义千问”给跑起来了。理论上所有的8G N卡也能跑起来!
成功后,心态就平稳很多了,半天功夫没白费,美滋滋。
趁热打铁,抽个几分钟来测试一下运行速度。
加载模型用了好几分钟,回答问题大概只用了几秒钟。还不错啊,这速度基本能用了。
按上面的方式运行代码,AI只能回答预设的几个问题。这样搞起来就有点不爽,每次提问,还得改源代码,重新加载模型...
所以我又花了几分钟,写了一个WebUI。
界面如下:
写这个界面和功能,大概只用了行Python代码。Gradio这东西用起来确实爽,怪不得那么多开源项目都用这个来做界面。
心满意足了!!!
有没有看到这里,还是一头雾水的人?哈哈!
那么我就提供一个无需配置,无需登录,直接可以体验的网址把:
通义千问官方主页:
有兴趣的可以去玩一玩!
收工!
KK源码网是骗子网站!!!
KK源码网真的是骗子网站,没有注册的时候提示注册以后才可以下载,注册要元,注册了以后才发现里面的源码全部都是几十元到到几千元,充值了还下载不了,购买的源码还得问他们要,这还不算,最后花几百元买的源码还不能用,可以用的要几千几万RMB 坑B,一环一环的套路。
2024-11-29 04:21
2024-11-29 03:36
2024-11-29 03:26
2024-11-29 02:59
2024-11-29 02:38
2024-11-29 02:18