首頁(yè)最新資訊

全部 常見問(wèn)題 新聞動(dòng)態(tài) 技術(shù)文章 技術(shù)問(wèn)答

    • break語(yǔ)句語(yǔ)法結(jié)構(gòu)介紹

      break語(yǔ)句用于跳出離它最近一級(jí)的循環(huán),能夠用于for循環(huán)和while循環(huán)中,通常與if語(yǔ)句結(jié)合使用,放在if語(yǔ)句代碼塊中,其格式如下所示。查看全文>>

      技術(shù)文章2021-06-11 |黑馬程序員 |break語(yǔ)句在Python中有哪些用途
    • 數(shù)據(jù)倉(cāng)庫(kù)有幾種數(shù)據(jù)模型?

      在數(shù)據(jù)倉(cāng)庫(kù)建設(shè)中,一般會(huì)圍繞著星型模型和雪花模型來(lái)設(shè)計(jì)數(shù)據(jù)模型。下面就來(lái)介紹一下這兩種數(shù)據(jù)模型。查看全文>>

      技術(shù)文章2021-06-11 |黑馬程序員 |數(shù)據(jù)模型,數(shù)據(jù)倉(cāng)庫(kù)
    • scrapy框架的工作流程介紹

      Scrapy的運(yùn)作流程由引擎控制,其過(guò)程如下:(1)引擎向Spiders請(qǐng)求第個(gè)要爬取的URL(s)。(2)引擎從Spiders中獲取到第一個(gè)要爬取的URL,封裝成Request并交給調(diào)度器。(3)引擎向調(diào)度器請(qǐng)求下一個(gè)要爬取的Request。查看全文>>

      技術(shù)文章2021-06-09 |黑馬程序員 |scrapy框架的工作流程
    • 網(wǎng)絡(luò)爬蟲之通用爬蟲和聚焦爬蟲

      根據(jù)使用場(chǎng)景,網(wǎng)絡(luò)爬蟲可分為通用爬蟲和聚焦爬蟲兩種。通用爬蟲是捜索引擎抓取系統(tǒng)(Baidu、Google、Yahoo等)的重要組成部分,主要目的是將互聯(lián)網(wǎng)上的網(wǎng)頁(yè)下載到本地,形成一個(gè)互聯(lián)網(wǎng)內(nèi)容的鏡像備份。聚焦爬蟲,是“面向特定主題需求”的一種網(wǎng)絡(luò)爬蟲程序。接下來(lái),就對(duì)這兩種爬蟲分別進(jìn)行介紹。查看全文>>

      技術(shù)文章2021-06-09 |黑馬程序員 |通用爬蟲和聚焦爬蟲
    • NumPy常用的數(shù)據(jù)類型有哪些?怎樣進(jìn)行轉(zhuǎn)換?

      NumPy支持比Python更多的數(shù)據(jù)類型。下面介紹一些常用的數(shù)據(jù)類型,以及這些數(shù)據(jù)類型之間的轉(zhuǎn)換。通過(guò)“ndarray.dtype”可以創(chuàng)建一個(gè)表示數(shù)據(jù)類型的對(duì)象。要想獲取數(shù)據(jù)類型的名稱,則需要訪問(wèn)name屬性進(jìn)行獲取,示例代碼如下。查看全文>>

      技術(shù)文章2021-06-09 |黑馬程序員 |NumPy中常用的數(shù)據(jù)類型
    • 怎樣通過(guò)Anaconda管理Python包?

      Anaconda集成了常用的擴(kuò)展包,能夠方便地對(duì)這些擴(kuò)展包進(jìn)行管理,比如安裝和卸載包,這些操作都需要依賴conda。conda是一個(gè)在Windows、Mac OS和Linux上運(yùn)行的開源軟件包管理系統(tǒng)和環(huán)境管理系統(tǒng),可以快速地安裝、運(yùn)行和更新軟件包及其依賴項(xiàng)。查看全文>>

      技術(shù)文章2021-06-09 |黑馬程序員 |Anaconda,Anaconda,管理Python包
和我們?cè)诰€交談!