欢迎来到皮皮网网首页

【溯源码标签要求】【域名出售源码】【st库源码】gpt 4源码

来源:sqlite 源码 时间:2024-11-25 11:29:19

1.gpt 4Դ??
2.Auto-GPT 完全体,全部功能(联网、文本、语音、图像)安装教程
3.AI驱动的前端UI组件生成器(Next.js,GPT4,溯源码标签要求Langchain和CopilotKit)
4.[新年快乐/AI永不眠]利用任务提升Agent游戏玩法;本地 RAG 手册开源;CogCoM 新模型增强视觉推理能力
5.GPT-Engineer一夜爆火!一个提示生成整个代码库,GitHub狂飙19k星
6.开发 Web App 的智能体 gptengineer.app

gpt 4源码

gpt 4Դ??

       深入分析Dify源码:大模型调用异常定位

       在使用Dify服务与Xinference的THUDM/glm-4-9b-chat模型部署时,遇到了知识库检索节点执行时报错大模型GPT3.5不存在的问题。异常出乎意料,因为没有额外信息可供进一步定位。

       通过源码和服务API调用链路的分析,我们发现问题的关键在于知识库检索的实现。该功能在api/core/rag/datasource/retrieval_service.py中,其中混合检索由向量检索和全文检索组成。我们关注了关键词检索、向量检索和全文检索这三个基础检索方式:

       关键词检索:仅使用jieba进行关键词提取,无大模型介入。

       向量检索:通过向量库直接搜索,如Milvus,无大模型调用。

       全文检索:使用BM,大部分向量库不支持,实际操作中返回空列表。

       问题出现在知识库检索节点的多知识库召回判断中,N选1召回模式会调用大模型以决定知识库。在配置环节,前端HTTP请求显示配置错误,使用了不存在的GPT3.5模型。

       经测试,手工创建的知识库检索节点使用了正确的glm-4-9b-chat模型,问题出在默认模板的配置上,即N选1召回模式默认选择了GPT3.5。本地部署时,如果没有配置相应模型,会导致错误出现。

       总结来说,解决方法是修改默认模板,将知识库检索的默认模式改为多路召回,这样可以避免新手在本地部署时遇到困扰。建议Dify官方在模板中改进这一设置,以简化用户部署流程。

Auto-GPT 完全体,全部功能(联网、域名出售源码文本、语音、图像)安装教程

       Auto-GPT 是一种新型 GPT 框架,具备自主迭代、联网查询、自我提示等功能。它能在第一轮对话中接收需求后,自主分解任务并完成,无需人工干预。未来,Auto-GPT 将能调用更多工具和插件,甚至桌面应用,从而极大解放人力。本教程将指导新手如何安装 Auto-GPT 的全部功能。

       一、安装环境

       1. Git 和 Anaconda(Python)安装

       (1)如果已安装 Python,可跳过此步骤。

       (2)安装 Git:访问 git-scm.com/download/wi...

       (3)安装 Anaconda:访问 anaconda.com/,下载并安装

       (4)安装 Python:访问 python.org/downloads/,下载并安装

       二、Auto-GPT 安装

       1. 下载项目

       (1)访问 github.com/Significant-...,复制项目地址

       (2)新建文件夹,按住 Shift 键右键选择“在此处打开 Powershell 窗口”,输入项目地址下载源代码

       (3)解压项目到新建文件夹

       2. 安装依赖库

       (1)打开 Auto-GPT 源码文件夹

       (2)在空白处按住 Shift 键右键选择“在此处打开 Powershell 窗口”,输入命令下载依赖库

       3. 更名与新建

       (1)将 .env.template 改名为 .env

       (2)创建 auto-gpt.json 文件

       三、API-key 获取

       1. OpenAI API-key

       (1)进入 platform.openai.com/acc...

       (2)复制 key,粘贴到 .env 文件中

       2. Pinecone API-key(可选)

       (1)打开 app.pinecone.io/,注册并复制 key

       (2)粘贴 key 到 .env 文件中

       3. Google API-key(可选)

       (1)打开 console.cloud.google.com...

       (2)创建项目,创建 API 密钥,复制 key

       (3)打开 programmablesearchengine.google.com...

       (4)点击“添加”,填写信息,复制搜索引擎 ID

       (5)将 key 和搜索引擎 ID 粘贴到 .env 文件中

       4. HuggingFace API-key(可选)

       (1)打开 huggingface.co/settings...

       (2)点击“Access Tokens”,复制 key

       (3)粘贴 key 到 .env 文件中

       5. ElevenLabs API-key(可选)

       (1)打开 beta.elevenlabs.io/

       (2)复制 key 和 voice ID

       (3)将 key 和 voice ID 粘贴到 .env 文件中

       四、运行 Auto-GPT

       1. 打开命令行,cd 到 Auto-GPT 目录下,或打开 Powershell 窗口

       2. 输入命令运行 Auto-GPT,设置任务、目标等参数

       五、解决 APIConnectionError 错误

       在 Python 安装目录下的 site-packages\openai\api_requestor.py 代码中,添加红框内容,并在使用到该函数的地方增加接受 proxy 的变量

AI驱动的前端UI组件生成器(Next.js,GPT4,Langchain和CopilotKit)

       构建AI驱动的前端UI组件生成器,以帮助您生成Next.js Tailwind CSS UI组件,st库源码是一个兼具高效与便捷的开发方法。本教程将引导您通过几个关键步骤,构建一个集成有AI功能的UI组件生成器,从项目设置与包安装,到前端界面设计与AI功能集成,最终实现生成及使用UI组件的全过程。以下内容将具体介绍如何完成这一构建过程。

       首先,确保您的开发环境已准备就绪。为了能充分理解接下来的教程,您需要对React或Next.js有基本了解。本项目将利用Ace代码编辑器、Langchain包及其依赖项,以及CopilotKit工具。您需要在终端中运行以下代码片段以创建Next.js应用程序:`bash npx create-next-app@latest aiuigenerator`。接下来,安装Ace、Langchain及其依赖,以及CopilotKit,这将为添加AI功能做好准备。

       在项目结构中,我们将创建一个名为`components`的文件夹,并在其中包含`Header.tsx`与`CodeTutorial.tsx`两个文件。`Header.tsx`负责定义导航栏,`CodeTutorial.tsx`则展示生成的UI组件、嵌入式代码编辑器及实现教程。在`page.tsx`文件中,导入并定义`Home`函数组件,用于整合`Header`和`CodeTutorial`组件。在完成上述步骤后,删除`globals.css`中的CSS代码,并添加自定义CSS以优化界面外观。运行`npm run dev`命令,然后访问`/AntonOsika/g...。

       GPT-Engineer的特色包括:一个提示就能生成一个代码库,提出需要澄清的问题,生成技术规范,编写所有必要代码,易于添加自己的推理步骤、修改和实验,项目开源,分分钟让你完成编码。这预示着未来软件创造将是一个人机共话的时代。

       项目主要作者Anton Osika在6月日首次推出GPT-Engineer,刷粉丝源码并介绍了这款AI工具最大的特点:简单易用,能够为用户提供价值;灵活且易于添加新的「AI步骤」;支持高级提示,可以记住用户反馈;能快速在AI和人类之间快速切换;所有计算都是「可恢复的」,并持久地保存到文件系统。这个项目独特地方在于,开发者在文本文件中提交需求,GPT-Engineer不是无条件接受这些要求,而是提出许多详细的问题来让程序员澄清缺失的细节。

       GPT-Engineer的工作流程分两个阶段:需求细化促进阶段和软件构建阶段。在需求细化阶段,用户提供的包含软件需求的文本文件被提交给GPT-Engineer,并被放置在OpenAI的GPT的初始消息中,同时还包括确定澄清问题的指示。GPT-Engineer系统接收来自OpenAI GPT-4的反馈,了解哪些需求需要澄清,并回应提示用户澄清的问题。整个过程循环,直到所有问题澄清到OpenAI GPT-4满意为止。在软件构建阶段,前一阶段提炼的需求被打包,并与OpenAI的GPT指令(即系统提示)和另外一套GPT-Engineer希望看到的输出指令(即用户提示)一起包装起来。GPT-Engineer收到来自OpenAI GPT-4的响应,然后创建源代码文件。

       使用GPT-Engineer,你可以创建一个多人可玩的贪吃蛇网页版游戏。你只需要输入一些关键提示,GPT-Engineer就会让你继续回答一些细节的问题,例如游戏规则和机制、玩家互联、游戏状态更新、用户界面、游戏控制、游戏结束状况和代码结构。具体步骤唰唰唰地来了,最后一款完美的贪吃蛇游戏代码就完成了。

       用户反馈显示,「澄清问题」是真正使GPT-Engineer脱颖而出的原因,因为修复生成代码中的问题往往比编写代码本身需要更多的时间。然而,这个项目火虽火,一位网友测试了GPT-Engineer,给出了体验:难设置,实际上不是创建文件,只是订单网站源码让你从命令行中运行一次(即不能调试),与ChatGPT4的能力相当。还有网友对基准指出了问题,GPT-Engineer做了几个简单的编程任务,并将它们作为基准,可以为你快速开发一个currency_converter,但不能正确编码一个pomodoro_timer。

       安装方法:对于稳定版本,使用pip install gpt-engineer;对于开发版,git clone git@github.com:AntonOsika/gpt-engineer.git,cd gpt-engineer,make install,source venv/bin/activate。设置使用GPT4访问权限的API密钥运行:export OPENAI_API_KEY=[your api key]。运行:创建一个空文件夹,如果在repo中,可以运行cp -r projects/example/ projects/my-new-project,在新文件夹中填写 main_prompt,运行gpt-engineer projects/my-new-project。检查 projects/my-new-project/workspace 中生成的文件。

       项目主要作者Anton Osika是Depict.ai的首席技术官,创建了机器学习推荐系统,通过尖端的机器学习、计算机视觉和自然语言处理来理解产品。就在4小时前,他还发了一条动态称,GPT-Engineer已经跃升到k星,一点也没有减速迹象。

参考资料:

github.com/AntonOsika/g...

开发 Web App 的智能体 gptengineer.app

       gptengineer.app

       gptengineer.app是一个专注于为非技术人员生成Web应用程序的项目。提供直观的界面,连接到Git控制的代码库,支持开源社区。

       项目提供多样化的技术栈选择,包括Chakra UI、Simple HTML、JS和CSS文件生成、Tailwind Daisy UI、以及Tailwind等,满足不同需求。

       选择多种模型名,如claude-3-opus-、claude-3-haiku-、gpt-4--preview、gpt-3.5-turbo等,以适应不同的生成场景。

       创建网站:只需稍等片刻,网站即可建立完成。用户可通过编辑器查看生成的页面。

       优化需求:通过自然语言对话,用户可以轻松修改网页内容,如删除或增加特定段落。如:"关于我们"字样删除,并扩展介绍内容至字。

       发布网站:完成修改后,用户可以直接发布网站。

       设置功能:关联GitHub账号,管理项目,查看生成的初始化代码。点击“Code”链接直接跳转至GitHub仓库,查看源代码。

       预览网站:使用“Live”选项预览最终效果。

       付费计划:gptengineer.app提供付费服务,用户可根据需求选择相应计划。服务内容涵盖网站生成、优化、发布及管理。

9个用于测试自动化的最佳AI测试工具()

       选择优质的AI测试工具能确保测试流程的准确性和效率,加速软件测试周期。相反,设计不佳的工具可能无法发现错误,并可能引发安全问题,导致误报或漏报,误导开发与测试团队,引发潜在软件故障。以下是九款用于测试自动化的AI测试工具,它们在不同方面表现出色,为软件开发和测试团队提供了强大的支持。

       1. testRigor

       testRigor是一个基于AI的测试工具,简化了测试用例的编写过程,让开发人员和测试人员能够轻松操作。它通过AI自动化维护过程,确保测试的高准确度。testRigor提供顺畅的Web或移动应用测试体验,包括自我修复和真实设备测试功能,且能完美集成到CI/CD流程中。

       2. Global App Testing

       Global App Testing是一种用于复杂功能和用户体验测试的AI驱动工具,适合产品主管和QA专业人员使用。它通过与后端服务连接,帮助用户更好地理解软件和AI输出,被多家企业采用,包括谷歌、微软和Facebook。

       3. LambdaTest

       LambdaTest是一个AI驱动的测试执行平台,支持在云基础架构上进行大规模手动和自动化测试。它利用AI增强的HyperExecute功能,优化测试流程,提供RCA以快速解决问题,并进行高级片段测试检测。

       4. BlinqIO

       BlinqIO是一种AI驱动的测试工具,提供强大的测试框架,简化软件开发流程。它帮助用户在开发阶段识别错误,优化和改进软件解决方案。

       5. Roost.ai

       Roost.ai是一个AI驱动的测试工具,利用Vertex AI和GPT-4等LLM进行自动化软件测试。它提供%的测试覆盖率,加速测试过程,通过源代码、用户故事和其他输入自动创建测试用例,实现过程自动化和准确结果。

       6. MagnifAI

       MagnifAI是一个AI驱动的测试平台,自动化不同行业软件测试流程。它集成LLM和AI自动创建测试脚本,加速测试周期,提高软件质量,减少测试时间和自动化重复任务。

       7. ContextQA

       ContextQA是一种支持AI的软件测试工具,提供自动测试解决方案,增强软件QA过程。它是由Deep Barot创建的Selenium的替代品。

       8. Relicx

       Relicx利用生成AI简化软件测试,提供无代码测试编写、自我修复测试和可视化回归检测功能。它的强大API和CLI使其无缝集成到CI/CD流程中,支持可靠软件版本的高效端到端测试和用户验收测试。

       9. Momentic

       Momentic是一个低代码、AI驱动的测试平台,帮助开发人员快速高效地创建端到端测试。它与CI/CD工作流无缝集成,加速开发流程。

gpt既不开源,又不允许蒸馏,跟openai这个名字还相符吗?

       ChatGPT 的流行引发了对开源的热烈讨论。一些人认为,只要OpenAI 开放源代码,全球就能迅速获得ChatGPT。然而,这实际上是一种误解。开源是指公开源代码,过去我们常将其理解为免费获取软件项目的原始代码,例如 Linux 操作系统。拿到 Linux 源码后,理论上可以在本地编译相同的系统内核。但实际上,编译过程可能会因编译方法的不同而产生差异,这通常会使人们误解开源的力量,以为开源能带来广泛且快速的普及。然而,大语言模型的开源概念与此完全不同。

       如果 OpenAI 真的开放了GPT-4的源代码,那也只是其中的一部分。大语言模型的开源实际上涉及三个主要对象:源码、算法以及数据。算法的核心部分包括模型结构和训练方法,这通常是开源的。然而,要实现与 ChatGPT 类似的模型,还需要高算力和大数据。算法、算力和数据是人工智能时代的三大要素,缺一不可。仅拿到源码并不意味着能构建出类似 ChatGPT 的模型。

       高算力是一个关键门槛,但并不是所有企业都能跨越。然而,数据的获取和质量则是另一个巨大的挑战。数据对于人工智能的重要性无需赘言,无论是人工智能时代还是人工智障时代,数据的规模和质量都是影响模型表现的关键因素。数据标注需要投入大量的人力、财力和时间,这使得数据集的建设成为一项艰巨的任务。即使是财力雄厚的企业如 OpenAI,也会在数据标注上寻求成本效益。

       开源意味着共享和协作,它对人工智能的快速发展起到了重要作用。学术论文通常是研究成果的一部分,许多作者选择免费公开论文,为研究社区提供了宝贵的知识资源。源码并非必需,有些研究者仅发布论文而不提供源码,可能出于对成果的保护、对源码质量的担忧,或是担心复现效果的问题。大公司和机构在使用开源模型时更为谨慎,他们可能出于社会责任、安全伦理等考虑,选择仅公开模型而不公开所有细节。

       就开源数据集而言,其重要性往往被忽视。中文大语言模型面临多种需求,开源数据集的建设是推动这一领域发展的关键。虽然存在诸多挑战,但已有项目开始致力于开源数据集的建设,这些努力如同星星之火,正逐渐点亮中文大语言模型发展的道路。

小游戏出海!势在必行!(内含出海工具推荐)

       今天,整个游戏行业都被一条爆炸性新闻点燃了激情:

国家新闻出版署的最新公告,无疑对国内游戏市场产生了深远影响,引发了一波股价动荡,各大游戏公司的股价在短短时间内大幅下跌,游戏圈和投资圈的讨论热度飙升。</在这样的背景下,出海似乎成为游戏行业的一剂良药,尤其对于面临挑战的小游戏开发者来说,海外市场的探索显得尤为重要。

       让我们聚焦于年小游戏的严峻环境,其中买量成本的飙升和政策变化是关键因素。《寻道大千》、《咸鱼之王》和《疯狂骑士团》等爆款的崛起,让内购付费(IAP)小游戏主导了市场,这不仅提高了买量成本,也使得长线广告变现(IAA)愈发艰难,比如像《动物餐厅》这样长期的商业模式几乎难以复制。

       另一个不容忽视的问题是,软著申请门槛提升和小游戏备案新政策的实施,使得游戏上线周期延长至至少两个月,这对于依赖快速试错的轻度超休闲游戏来说,无疑是一场生存考验,竞争压力急剧增大。

       在这一片红海中,老菜喵诚挚建议新入行的休闲游戏开发者审慎考虑海外市场,那里隐藏着尚未被充分挖掘的蓝海机遇。尤其从手机流量增长的态势来看,海外市场正经历爆炸式增长,H5游戏市场年已达到亿美金规模,预计年将达到惊人的亿美金,为IAA游戏提供了广阔空间。

       Google的最新研究显示,全球%的玩家在过去一个月里玩过H5游戏,这表明海外用户基础庞大。尽管本地化成本一度被视为难题,但随着AI技术的进步,借助ChatGPT等工具,开发者可以轻松实现游戏内容的本地化,我也会分享一些实用的工具和案例。

       小游戏出海的有利因素与策略

       个人独立站:H5游戏盒子作为品类集合,可借助Cocos Creator开发,这个引擎拥有《疯狂骑士团》等热门作品背书,其商店提供丰富的游戏源码,便于快速定制和分发,且内置Google AdSense,一键变现。

       运营策略:选择优质域名,如.cc或.top,注重游戏数量(至少款,拳头产品优先)和品类多样性,从T1国家起量,用GPT4进行低成本的高质量翻译,利用激励视频广告等手段提升用户体验。

       内置流量:与手机厂商和大应用合作,避免同质化,选择国内信誉良好的发行/厂商,确保海外结算顺利。

       门户网站流量:合作超过家主流平台,确保游戏的多元化分发。

       最后,出海投放策略也不容忽视,一个高效的情报工具——广大大(SocialPeta)凭借其丰富的素材库和竞品分析功能,能极大提升广告营销的效率,成为游戏开发者出海路上的得力助手。