当前位置:淡墨SEO首页 > SEO软件 > 自然语言关键词生成文章API接口请求

自然语言关键词生成文章API接口请求

淡墨SEO3年前 (2022-09-23)SEO软件12065

本次主要介绍通过自然语言将关键词生成一篇原创文章,以及制作文章生成的接口api,方便需要生产内容的用户进行调用。下面就逻辑和使用方法给做个介绍。


首先是逻辑原理,原理就是人工智能深度学习,进行关键词的模型训练。从而会对目标词块也就是关键词进行相关性的输出。核心技术就不再讲解了,不是那么容易的。一时半会实力不允许。这次主要对平台的接口进行转接,也就是调用我生成的接口。不过平台的接口是付费的。


再平台调用的文章后,再对文章进行二次处理。得到一个排版好的格式文章。可以直接对接网站进行发布。

  #获取文章
    @retry(stop_max_attempt_number=1,retry_on_result=lambda x: x is None,wait_fixed=2000)
    def getArticle(self,keyword):
        result = outputText(keyword)
        print(result)
        if result['code'] == 200:
            print('获取文章成功')
            # self.collection.update_one({'keyword':result['keyword']},{'$set': {'content':result['content']}},upsert=True)
            # return result['keyword'],result['content']
            return result
        return 0

    #处理文章
    def handle_content(self, info):
        content = info['content']
        if len(content) < 300:return
        endflag = re.search(r'\?|\?|\。|\!|\!',content[-1])
        if not endflag:
            endResult = self.getArticle(content[-6:])
            if endResult:content += endResult['content']
        # 去除开头符号
        content = re.sub(r'^\W*?(?P<one>\w)', self.extract_one, content, re.S)
        # print(content)
        # 去除文章中的\
        content = re.sub(r'\\', '', content, re.S)
        # print(content)
        # 顿号、前数字是1234或一二三四,加br标签分段
        content = re.sub(r'(?P<num>\S)\s*?(?P<dun>、)',
                         self.extract_num, content, re.S)
        # print(content)
        # 句号、问号和感叹号后加br标签
        content = re.sub(r'(?P<hao>\。|\?|\?|\!|\!)',
                         self.extract_hao, content, re.S)
        # print(content)
        # 两个顿号间的句号、问号和感叹号后不加br标签
        content = re.sub(r'<br>\s*?<br>', '<br>', content, re.S)
        # print(content)
        info['content'] = content
        print('文章处理成功')
        return info


个人接口还是继续用flask进行生成,在flask中主要对接文章生成函数,通过接口地址请求,将文章生成出来。

@app.route('/nlp')
def nlp():
    token = request.args.get('token','').strip()
    keyword =  request.args.get('keyword','').strip()
    if not token: return '还没有输入token'
    if not keyword:return '还没有输入关键词'    
    hinfo = Article(keyword).main()
    item = NlpApi.objects(token=token).first()
    count = item.count - 1
    item.update(keyword=keyword,nlpcont=hinfo['content'],count=count)
    return jsonify({
        '关键词':keyword,
        'nlp文章写作':hinfo['content'],
        '剩余次数':count
    })


本次接口是通过get请求。只需要在浏览器中请求即可获取到自然语言生成的文章。

image.png


这样我们就能很轻松就能很轻松的生成一篇原创文章了,这在日后建站,做自媒体素材方面也有着一定作用,可以做到内容方面的积累。进行引流等作用。


image.png


如果需要这个接口生成文章,需要获取token参数。token获取地址:http://pan.cp30.cn 那么文章的生成计费方式简单粗暴,1毛钱/1篇。需要的话可以在商城http://pan.cp30.cn获取token参数,自动发token。


扫描二维码推送手机访问

文章内容均为原创,禁止转载!

本文链接:http://danmoseo.com/news/16.html

标签: 人工智能

相关文章

搜狗站长平台推送,站点和非站点都可提交

搜狗站长平台推送,站点和非站点都可提交

日常做网站seo的时候,离不开对url的推送,这也是对应站长平台提供的链接提交服务,本次就搜狗站长平台批量提交,做一个推送讲解和示例。封装软件发货传送门》》搜狗站长平台推送视频演示:如下图就是网页推送的界面,如果每次都要手动去输入提交,想必效率和耐心都跟不上,而且想要做到批量提交,肯定要借助一个开发...

百度站长二级域名批量诊断推送

百度站长二级域名批量诊断推送

二级域名批量诊断推送的意思就是百度站长平台抓取诊断功能,这个功能提交后,可以实时的来蜘蛛访问。但是如果手动去诊断的话,也非常麻烦,而且每次都要验证一下旋转。先来看看正常抓取诊断,每个域名每周可抓取70次。视频演示在代码中首先要获取指定站点的id值设置规则,随机字母推送网站链接过旋转验证整体的核心思想...

无需代理ip查询搜狗任务触发验证码机制并识别通过

无需代理ip查询搜狗任务触发验证码机制并识别通过

如果我们想做一些搜狗页面的一些数据分析,比如网站关键词排名,挖掘相关搜索词等任务,用代码自动化请求时间过长,会触发搜搜验证码机制。对于这个验证码,可以识别验证码并请求通过。遇到这类情况,可以分析一下接口,经过分析,在代码中进行还原请求data参数中suuid和auuid在页面源码中可以获取到,r、p...

360识别文字验证码后并进行批量提交

360识别文字验证码后并进行批量提交

前面说到360点选验证码js逆向的过程,这次对js逆向的过程进行实际应用并进行url的批量提交,下面讲解一下主要难点。软件拍下自动发货地址:http://faka.danmoseo.com/buy/7视频演示问题一、网页图片尺寸是320*198,而通过请求接口获取的图片尺寸是580*410那么在代码...

利用pyppeteer模拟浏览器自动化二级域名绑定任务

利用pyppeteer模拟浏览器自动化二级域名绑定任务

最近百度一直在更新,取消dns、post请求403,更改滑块验证码等措施,导致现在发包绑二级频频被限制。既然这样,直接索性搞一个自动化浏览器的模式来绑定二级。此次用到的是pyppeteer浏览器框架。此框架异步处理 速度还是挺快的。而且不需要下载浏览器驱动,非常方便哈。视频演示:首先是百度二级域名绑...