如何将几百篇公众号文章作为Gpts的知识库?
公众号 ·
邱比特
2023年12月04日20:35
最近在玩OpenAi的Gpts,我用公众号里几百篇文章作为知识库,让Gpts学习知识库里的文章,仿写公众号文章。
但是Gpts上传知识库的文件有如下限制:1.每个GPT限制:10个文件2.每个文件限制:512MB(图像文件为20MB),2M令牌3.每个用户限制:10:GB_c。每个组织限制:100GB。
我在实践的时候也产生了好多疑问
1、为了确保GPT从源头获取所需的所有信息,哪种格式最好?Word、PDF、JSON等2、获得最大性能的最佳方法是什么?上传到知识库?上传到网络服务器并使用API?3、为了实现最佳的彻底搜索,最好将所有内容按文件(例如章节)分开,还是可以将所有PDF分组为1个大PDF,从而失去收集所需信息的能力?4、为了充分利用源文件,内容管理最佳实践建议是什么?
原来想把所有文件打成压缩包,提示我文件太大,并且不能检索。调研了一圈,发现将所有文件转换为文本文件,将内容分成较小的文件以提高搜索效率。
最后通过把word文件转为txt,然后每10-20个txt文件合并成一个文件。再把合并后的文件上传到知识库。
文件的转换和合并都通过chatgpt编程实现。以下是提示词和效果。
执行上面代码后,完美上传了所有文件。
left|fracfrac1operatornamemaxfrac1operatornamemaxright|