技术文章:SEO怎么写原创内容

优采云 发布时间: 2022-10-19 22:13

  技术文章:SEO怎么写原创内容

  写 原创 对很多人来说是非常困难的。但我认为,原创其实是我们内心真实的感知或体验。它可以来自我们日常生活或工作中的观点、看法或想法。还有什么可以与一个人的想法相似?我想可能不会。在网站优化中,内容优化一直是重中之重。我看过很多写原创的例子,网上也有很多相关的课程,那么如何才能创造出一个有质量的原创呢?

  1:根据实际工作经验

  

  既然从事这个领域的工作,我们是最了解这条线的,肯定有很多话要说。我们为什么不使用实际工作经验作为写作材料?我想我们可以写下我们平时的*敏*感*词*。这种方法不仅可以加深您的日常工作经验,还可以提高您自己的写作技巧。

  2:站在用户的角度思考

  当我们编写 原创 时,很容易偏离正轨。我们写的文章是给用户看的,解决用户需求的。如果您的 文章 不能满足用户的需求,那就是垃圾邮件。而且,一般我们的网站都是卖产品的。如果你的内容不足以满足用户的需求,那么这些流量肯定不会被转化。博客网站也是如此。如果您的内容没有吸引力,谁会阅读它?

  

  3:创建当前流行的长尾关键词

  每个热词都有一定的写作价值。要知道,因为这些时效性的词在互联网上是比较稀缺的,也是用户比较大的需求点。所以想要达到引流和提升的效果,就必须在这里下功夫。当你想把这件事做好的时候,你就会千方百计;当你认为它只是一个任务时,它完成了就会完成,你不可能有源源不断的想法。

  以上三点是我个人在做原创时的体会和体会,比较可行。其实写作来源于生活,有价值的原创当然离不开平时的积累和学习。如果真的不会写,那就换个方式吧,没办法原创,那么首先伪原创,伪原创也需要高质量的伪原创,伪原创不是垃圾,不要只是想被文章搜索引擎收录不考虑用户体验,就像开门做生意一样,你的货是质量好可靠,消费者可以放心购买回头客多,生意兴隆。如果出现产品质量差的问题,那可想而知。

  分享的内容:SEO文章原创度检测

  过程:

  1)先放一个文章,用逗号分隔成短语一个一个

  2)然后计算每个短语的字数

  

  3)对于前两个词组>10字的词组,我们在百度搜索下取出,统计该词组在百度搜索结果中完全出现的次数。

  如果一个文章被其他网站大量转载,只需在文章中提取一个词组,你可以在百度上搜索准确的重复内容:

  如果我们连续搜索两个词组,在百度搜索中,完全重复的结果很少,这意味着该内容在一定程度上被其他网站转载的概率比较小,原创 相对较高。

  

  编写脚本执行以上 3 步:

  左栏是文章的ID,右栏是这两个词组在百度搜索结果中出现的完整次数。次数越大,重复程度越高,具体数值可以自己定义。比如这个渣一般定位>=30%的重复度高的,也就是搜索2个词组。在 20 个搜索结果中,有 >=6 个结果完全出现了该短语

  #coding:utf-8<br /><br />import requests,re,time,sys,json,datetime<br />import multiprocessing<br />import MySQLdb as mdb<br /><br />reload(sys)<br />sys.setdefaultencoding('utf-8')<br /><br />current_date = time.strftime('%Y-%m-%d',time.localtime(time.time()))<br /><br />def search(req,html):<br />    text = re.search(req,html)<br />    if text:<br />        data = text.group(1)<br />    else:<br />        data = 'no'<br />    return data<br /><br />def date(timeStamp):<br />    timeArray = time.localtime(timeStamp)<br />    otherStyleTime = time.strftime("%Y-%m-%d %H:%M:%S", timeArray)<br />    return otherStyleTime<br /><br />def getHTml(url):<br /><br />    host = search('^([^/]*?)/',re.sub(r'(https|http)://','',url))<br /><br />    headers = {<br />        "Accept":"text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,*/*;q=0.8",<br />        "Accept-Encoding":"gzip, deflate, sdch",<br />        "Accept-Language":"zh-CN,zh;q=0.8,en;q=0.6",<br />        "Cache-Control":"no-cache",<br />        "Connection":"keep-alive",<br />        #"Cookie":"",<br />        "Host":host,<br />        "Pragma":"no-cache",<br />        "Upgrade-Insecure-Requests":"1",<br />        "User-Agent":"Mozilla/5.0 (Macintosh; Intel Mac OS X 10_11_4) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/52.0.2743.116 Safari/537.36",<br />    }<br /><br />  # 代理服务器<br />    proxyHost = "proxy.abuyun.com"<br />    proxyPort = "9010"<br /><br />    # 代理隧道验证信息<br />    proxyUser = "XXXX"<br />    proxyPass = "XXXX"<br /><br />    proxyMeta = "http://%(user)s:%(pass)s@%(host)s:%(port)s" % {<br />      "host" : proxyHost,<br />      "port" : proxyPort,<br />      "user" : proxyUser,<br />      "pass" : proxyPass,<br />    }<br /><br />    proxies = {<br />        "http"  : proxyMeta,<br />        "https" : proxyMeta,<br />    }<br /><br />    html = requests.get(url,headers=headers,timeout=30)<br />    # html = requests.get(url,headers=headers,timeout=30,proxies=proxies)<br />    code = html.encoding<br />    return html.content<br /><br /><br />def getContent(word):<br /><br />    pcurl = 'http://www.baidu.com/s?q=&tn=json&ct=2097152&si=&ie=utf-8&cl=3&wd=%s&rn=10' % word<br />    # print '@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@ start crawl %s @@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@' % pcurl<br />    html = getHTml(pcurl)<br /><br />    a = 0<br />    html_dict = json.loads(html)<br />    for tag in html_dict['feed']['entry']:<br />        if tag.has_key('title'):<br />            title = tag['title']<br />            url = tag['url']<br />            rank = tag['pn']<br />            time = date(tag['time'])<br />            abs = tag['abs']<br /><br />            if word in abs:<br />                a += 1<br />    return a<br /><br /><br />con = mdb.connect('127.0.0.1','root','','wddis',charset='utf8',unix_socket='/tmp/mysql.sock')<br />cur = con.cursor()<br />with con:<br />    cur.execute("select aid,content from pre_portal_article_content limit 10")<br />    numrows = int(cur.rowcount)<br />    for i in range(numrows):<br />        row = cur.fetchone()<br /><br />        aid = row[0]<br />        content = row[1]<br />        content_format = re.sub(']*?>','',content)<br /><br />        a = 0<br />        for z in [ x for x in content_format.split(',') if len(x)>10 ][:2]:<br />            a += getContent(z)<br />        print "%s --> %s" % (aid,a)<br /><br /><br /># words = open(wordfile).readlines()<br /># pool = multiprocessing.Pool(processes=10)<br /># for word in words:<br />    # word = word.strip()<br />    # pool.apply_async(getContent, (word,client ))<br /># pool.close()<br /># pool.join()<br />

0 个评论

要回复文章请先登录注册


官方客服QQ群

微信人工客服

QQ人工客服


线