澳门金冠娱乐夸它家感受至上的制品理念,通过那前十头阵现

那二日双十一减价,像大家年年双十一唯一网购的是外卖的穷孩子,今年最大的意思,是续一波今日头条云音乐会员。

微博云音乐那款音乐APP本身比较喜欢,用户量也比较大,而乐乎云音乐之所以用户众多和它的歌曲评论功用密不可分,很多歌曲的评价尤其有意思,个中也不乏很多感人的褒贬。可是,今日头条云音乐并不曾提供热评排名榜和按评论排序的成效,没提到,本文就使用爬虫给我们爬一爬乐乎云音乐上那3个热评的歌曲。

慢着,贫穷使作者诚惶诚恐,还有要求吗?

  • ##### 结果

一度我们提起今日头条云音乐,都是夸

对经过并未趣味的童鞋直接看那里呀。

夸它家令人男默女泪的扎心评论

这世上有广大深情的人,他们看起来总是心神不定

——《Chasing All the Stars》热评

“父亲,人的生平有多少长度?”“人的平生啊,就是从作者睁开眼睛看到自己的母亲的那一刻起首,到自个儿再也看不见你的母亲的那一刻甘休。”

——《Soaked Through》热评

年轻时你做了五个控制

要把本身的性命献给爱情

新生您没死

常青替你抵了命

——《再也一贯不》热评

世界上有没有哪些糖是苦的

有啊,他的喜糖

——《红玫瑰》热评

“祝你们幸福是假的,祝你幸福是真的。”

——《作者到异地去看您》热评

自小编盼望他二十八岁没嫁,作者也不愿意她二十八岁没嫁。

——《三十周岁的妇人》热评

澳门金冠娱乐 1

夸它家感受至上的制品理念

评论数大于50000的歌曲排行榜

夸它经营销售别具一格逼格高

第叁恭喜一下本人最喜爱的演唱者(之一)周董的《晴天》成为和讯云音乐首先首评论数过百万的歌曲!

现在呢?

因此结果发现眼下评论数过八万的歌曲正好十首,通过那前十首发现:

大家开辟歌单,看到的都以紫罗兰色的音乐名字,像给大家关于那首歌的记得写上墓志铭。

  • 薛之谦(Xue Zhiqian)以后真正非常的火啦~
  • 差不多都以男歌星啊,男明星貌似更受欢迎?(别打笔者),男歌星中杰伊 Chou、薛之谦先生、许嵩(那多少人作者都相比较喜欢)大概占了榜单半壁江山…
  • 《Fade》电音强势来袭,很带感哈(搭配炫迈写代码完全停不下来..)

来源陈医务卫生人士歌单

基于结果做了和讯云音乐歌单 :

赢了体验,输了版权

让自个儿斗胆做2个困惑:

提示:
评论数过50000的歌曲
歌单中分别歌曲由于版权难题一时下架,暂由其余卓绝版本代替。
高能预先警告:TOP 29 《Lost
里弗斯》请慎重放放,倘使您持之以恒播放请先看评论…

若是您手提式有线电话机有多于两个音乐APP,那么您一定是王菲(Faye Wong)、卫兰、泳儿、容祖儿、张敬轩、四月天、林宥嘉(英文名:lín yòu jiā)个中之一的观者。

  • ##### 过程

    1. 考察今日头条云音乐官网页面HTML结构
      首页(http://music.163.com/
      歌单分类页(http://music.163.com/discover/playlist)。
      歌单页(http://music.163.com/playlist?id=499518394
      歌曲详情页(http://music.163.com/song?id=109998

    2. 爬取歌曲的ID
      通过观察歌曲详情页的UPRADOL,我们发现只要爬取到相应歌曲的ID就足以拿走它的详情页UKoleosL,而歌曲的音讯都在详情页。因而可见只要收集到全部歌曲的ID那么就足以得到全部歌曲的新闻啦。而这几个ID要从哪个地方爬呢?从歌单里爬,而歌单在哪爬呢?通过观察歌单页的UCRUISERL我们发现歌单也有ID,而歌单ID能够从歌单分类页中爬,好了就那样爬最终就能募集到拥有歌曲的ID了。

    3. 透过爬取评论数筛选出符合条件的歌曲

无他,因为那些歌手的歌在腾讯网云都下架了。

    ![](https://upload-images.jianshu.io/upload_images/1603753-654e290ffae2a1ce.png)



    很遗憾的是评论数虽然也在详情页内,但是网易云音乐做了防爬处理,采用AJAX调用评论数API的方式填充评论相关数据,由于异步的特性导致我们爬到的页面中评论数是空,那么我们就找一找这个API吧,通关观察XHR请求发现是下面这个家伙..



    ![](https://upload-images.jianshu.io/upload_images/1603753-09e0bb379aab0762.png)



    ![](https://upload-images.jianshu.io/upload_images/1603753-1616721508463876.png)


    响应结果很丰富呢,所有评论相关的数据都有,不过经过观察发现这个API是经过加密处理的,不过没关系...

4.  爬取符合条件的歌曲的详细信息(名字,歌手等)  
    这一步就很简单了,观察下歌曲详情页的HTML很容易就能爬到我们要的名字和歌手信息。

自己估量下个创业热点可以出现在版权查询,一键查询你要听的歌,给哪个王八蛋买了,且能够对其展开画圈圈诅咒。

  • ##### 源码

听一首歌要下叁个APP

为啥会那样吗?

# encoding=utf8
import requests
from bs4 import BeautifulSoup
import os, json
import base64
from Crypto.Cipher import AES
from prettytable import PrettyTable
import warnings

warnings.filterwarnings("ignore")
BASE_URL = 'http://music.163.com/'
_session = requests.session()
# 要匹配大于多少评论数的歌曲
COMMENT_COUNT_LET = 100000


class Song(object):
    def __lt__(self, other):
        return self.commentCount > other.commentCount


# 由于网易云音乐歌曲评论采取AJAX填充的方式所以在HTML上爬不到,需要调用评论API,而API进行了加密处理,下面是相关解决的方法
def aesEncrypt(text, secKey):
    pad = 16 - len(text) % 16
    text = text + pad * chr(pad)
    encryptor = AES.new(secKey, 2, '0102030405060708')
    ciphertext = encryptor.encrypt(text)
    ciphertext = base64.b64encode(ciphertext)
    return ciphertext


def rsaEncrypt(text, pubKey, modulus):
    text = text[::-1]
    rs = int(text.encode('hex'), 16) ** int(pubKey, 16) % int(modulus, 16)
    return format(rs, 'x').zfill(256)


def createSecretKey(size):
    return (''.join(map(lambda xx: (hex(ord(xx))[2:]), os.urandom(size))))[0:16]


# 通过第三方渠道获取网云音乐的所有歌曲ID
# 这里偷了个懒直接从http://grri94kmi4.app.tianmaying.com/songs爬了,这哥们已经把官网的歌曲都爬过来了,省事不少
# 也可以使用getSongIdList()从官方网站爬,相对比较耗时,但更准确
def getSongIdListBy3Party():
    pageMax = 1  # 要爬的页数,可以根据需求选择性设置页数
    songIdList = []
    for page in range(pageMax):
        url = 'http://grri94kmi4.app.tianmaying.com/songs?page=' + str(page)
        # print url
        url.decode('utf-8')
        soup = BeautifulSoup(_session.get(url).content)
        # print soup
        aList = soup.findAll('a', attrs={'target': '_blank'})
        for a in aList:
            songId = a['href'].split('=')[1]
            songIdList.append(songId)
    return songIdList


# 从官网的 发现-> 歌单 页面爬取网云音乐的所有歌曲ID
def getSongIdList():
    pageMax = 1  # 要爬的页数,目前一共42页,爬完42页需要很久很久,可以根据需求选择性设置页数
    songIdList = []
    for i in range(1, pageMax + 1):
        url = 'http://music.163.com/discover/playlist/?order=hot&cat=全部&limit=35&offset=' + str(i * 35)
        url.decode('utf-8')
        soup = BeautifulSoup(_session.get(url).content)
        aList = soup.findAll('a', attrs={'class': 'tit f-thide s-fc0'})
        for a in aList:
            uri = a['href']
            playListUrl = BASE_URL + uri[1:]
            soup = BeautifulSoup(_session.get(playListUrl).content)
            ul = soup.find('ul', attrs={'class': 'f-hide'})
            for li in ul.findAll('li'):
                songId = (li.find('a'))['href'].split('=')[1]
                print '爬取歌曲ID成功 -> ' + songId
                songIdList.append(songId)
    # 歌单里难免有重复的歌曲,去一下重复的歌曲ID
    songIdList = list(set(songIdList))
    return songIdList


# 匹配歌曲的评论数是否符合要求
# let 评论数大于值
def matchSong(songId, let):
    url = BASE_URL + 'weapi/v1/resource/comments/R_SO_4_' + str(songId) + '/?csrf_token='
    headers = {'Cookie': 'appver=1.5.0.75771;', 'Referer': 'http://music.163.com/'}
    text = {'username': '', 'password': '', 'rememberLogin': 'true'}
    modulus = '00e0b509f6259df8642dbc35662901477df22677ec152b5ff68ace615bb7b725152b3ab17a876aea8a5aa76d2e417629ec4ee341f56135fccf695280104e0312ecbda92557c93870114af6c9d05c4f7f0c3685b7a46bee255932575cce10b424d813cfe4875d3e82047b97ddef52741d546b8e289dc6935b3ece0462db0a22b8e7'
    nonce = '0CoJUm6Qyw8W8jud'
    pubKey = '010001'
    text = json.dumps(text)
    secKey = createSecretKey(16)
    encText = aesEncrypt(aesEncrypt(text, nonce), secKey)
    encSecKey = rsaEncrypt(secKey, pubKey, modulus)
    data = {'params': encText, 'encSecKey': encSecKey}
    req = requests.post(url, headers=headers, data=data)
    total = req.json()['total']
    if int(total) > let:
        song = Song()
        song.id = songId
        song.commentCount = total
        return song


# 设置歌曲的信息
def setSongInfo(song):
    url = BASE_URL + 'song?id=' + str(song.id)
    url.decode('utf-8')
    soup = BeautifulSoup(_session.get(url).content)
    strArr = soup.title.string.split(' - ')
    song.singer = strArr[1]
    name = strArr[0].encode('utf-8')
    # 去除歌曲名称后面()内的字,如果不想去除可以注掉下面三行代码
    index = name.find('(')
    if index > 0:
        name = name[0:index]
    song.name = name


# 获取符合条件的歌曲列表
def getSongList():
    print ' ##正在爬取歌曲编号... ##'
    # songIdList = getSongIdList()
    songIdList = getSongIdListBy3Party()
    print ' ##爬取歌曲编号完成,共计爬取到' + str(len(songIdList)) + '首##'
    songList = []
    print ' ##正在爬取符合评论数大于' + str(COMMENT_COUNT_LET) + '的歌曲... ##'
    for id in songIdList:
        song = matchSong(id, COMMENT_COUNT_LET)
        if None != song:
            setSongInfo(song)
            songList.append(song)
            print '成功匹配一首{名称:', song.name, '-', song.singer, ',评论数:', song.commentCount, '}'
    print ' ##爬取完成,符合条件的的共计' + str(len(songList)) + '首##'
    return songList


def main():
    songList = getSongList()
    # 按评论数从高往低排序
    songList.sort()
    # 打印结果
    table = PrettyTable([u'排名', u'评论数', u'歌曲名称', u'歌手'])
    for index, song in enumerate(songList):
        table.add_row([index + 1, song.commentCount, song.name, song.singer])
    print table
    print 'End'


if __name__ == '__main__':
    main()

神仙打架皮之不存毛将焉附

友情提醒:随着乐乎云音乐网站结构、接口、加密方式的更换本代码只怕并无法很好的行事,不过经过和法则都以千篇一律的,那里也只是给大家享受一下这一历程啦。那里有个Java语言的贯彻教程只是源码不全,有趣味的可以看看,本文代码中的getSongIdListBy3Party()就是从那汉子的结果中爬的。

当年10月因为搜狐云音乐和QQ音乐打版权官司,被迫下架了一有的歌。

天涯论坛云音乐表示,受影响的曲目占腾讯网云音乐总曲库的1%左右。

大兄弟,你曲库再大,没有笔者要听的没意义啊。

弱水三千,笔者瞟都不瞟。

本年十一月,腾讯阿里直达独家音乐版权转授同盟,

就像看见八个大汉联手,把云音乐那一个小媳妇逼在墙角殴打。

而云音乐融通资金7.5亿,也曾多次强调“不差钱”

不差钱你倒是买TM的呦。

争点气啊老铁,你总不可能让本身这二十或多或少的人,在人工胎盘早剥中开拓QQ音乐,第3个歌单推荐的是张杰吧。

一大群听众在默默等着您翻身,虽说不少人迫于无奈下了多少个音乐APP,但也不曾卸载你不是?

手机里自拍都快装不下了,还装着你个傻逼。

他俩图什么?

还不是念着旧情,好歹写过评论听过歌,看过很多评论里的传说,不能够白嫖不是?

还不是不愿终日看着QQ音乐虾米音乐天天推送的啥玩意儿?

还不是盼着有一天,体验无敌的你,补上版权的缺漏,王者归来,让大家有底气把绿的橙的蓝的啥东西都卸掉,一起再去你的评论区吹捧逼?

赢了感受,输了版权,要大家怎么着爱您到底。

女儿能够等穷小子挣钱发家,但也要有点希望呀。

说到底这一首我到底失去了你,送给新浪云:

(腾讯网云还没李宗盛先生版本的版权…)

当全体的人相差本人的时候

你劝作者要耐心等待

再就是陪笔者走过生命中最长的清祀

这么地超计生

当有着的人靠紧笔者的时候

您要本身安静从容

就像知道本人有一颗永不安静的心

(笔者)简单蠢动

自己终于让千百双臂在本人前面挥舞

本身算是有所了千百个热心肠的一坐一起

自家到底令人群被作者深入的震动

自笔者却忘了告知你

您直接在笔者心中

啊~笔者毕竟失去了你

在水泄不通的人群中

自我到底失去了你

当自己的人生第3遍感到无上光荣

啊~笔者到底失去了您

在熙熙攘攘的人群中

小编终于失去了您

当本身的人生第三次感到无上光荣

当周围掌声如潮水一般的险恶

作者看出您眼中有悲哀的泪光闪动

想 要 找 到 知 音 一 起 听 歌

小编们在KIA号里设置了二个栏目,目的在于为单身狗们消除交配友难题。

透过人为(笔者作者)匹配将有缘人拉到一块,实行渐进式的相互打分决定是或不是MATCH。

想要报名:

请关心公众号,点击菜单栏的「找伴过冬」

围观以下二维码可径直报名

登上那艘贼船,兴许能够望见爱情的面容。

相关文章