HOME 首頁
SERVICE 服務(wù)產(chǎn)品
XINMEITI 新媒體代運營
CASE 服務(wù)案例
NEWS 熱點資訊
ABOUT 關(guān)于我們
CONTACT 聯(lián)系我們
創(chuàng)意嶺
讓品牌有溫度、有情感
專注品牌策劃15年

    redis慢查詢(redis慢查詢?nèi)罩荆?/h1>
    發(fā)布時間:2023-04-08 01:08:13     稿源: 創(chuàng)意嶺    閱讀: 139        

    大家好!今天讓創(chuàng)意嶺的小編來大家介紹下關(guān)于redis慢查詢的問題,以下是小編對此問題的歸納整理,讓我們一起來看看吧。

    開始之前先推薦一個非常厲害的Ai人工智能工具,一鍵生成原創(chuàng)文章、方案、文案、工作計劃、工作報告、論文、代碼、作文、做題和對話答疑等等

    只需要輸入關(guān)鍵詞,就能返回你想要的內(nèi)容,越精準(zhǔn),寫出的就越詳細,有微信小程序端、在線網(wǎng)頁版、PC客戶端

    官網(wǎng):https://ai.de1919.com。

    創(chuàng)意嶺作為行業(yè)內(nèi)優(yōu)秀的企業(yè),服務(wù)客戶遍布全球各地,如需了解SEO相關(guān)業(yè)務(wù)請撥打電話175-8598-2043,或添加微信:1454722008

    本文目錄:

    redis慢查詢(redis慢查詢?nèi)罩荆?  src=

    一、MongoDB是什么,怎么用?看完你就知道了

    MongoDB是一款為web應(yīng)用程序和互聯(lián)網(wǎng)基礎(chǔ)設(shè)施設(shè)計的數(shù)據(jù)庫管理系統(tǒng)。沒錯MongoDB就是數(shù)據(jù)庫,是NoSQL類型的數(shù)據(jù)庫。

    (1)MongoDB提出的是文檔、集合的概念,使用BSON(類JSON)作為其數(shù)據(jù)模型結(jié)構(gòu),其結(jié)構(gòu)是面向?qū)ο蟮亩皇嵌S表,存儲一個用戶在MongoDB中是這樣子的。

    使用這樣的數(shù)據(jù)模型,使得MongoDB能在生產(chǎn)環(huán)境中提供高讀寫的能力,吞吐量較于mysql等SQL數(shù)據(jù)庫大大增強。

    (2)易伸縮,自動故障轉(zhuǎn)移。易伸縮指的是提供了分片能力,能對數(shù)據(jù)集進行分片,數(shù)據(jù)的存儲壓力分攤給多臺服務(wù)器。自動故障轉(zhuǎn)移是副本集的概念,MongoDB能檢測主節(jié)點是否存活,當(dāng)失活時能自動提升從節(jié)點為主節(jié)點,達到故障轉(zhuǎn)移。

    (3)數(shù)據(jù)模型因為是面向?qū)ο蟮模钥梢员硎矩S富的、有層級的數(shù)據(jù)結(jié)構(gòu),比如博客系統(tǒng)中能把“評論”直接懟到“文章“的文檔中,而不必像myqsl一樣創(chuàng)建三張表來描述這樣的關(guān)系。

    (1)文檔數(shù)據(jù)類型

    SQL類型的數(shù)據(jù)庫是正規(guī)化的,可以通過主鍵或者外鍵的約束保證數(shù)據(jù)的完整性與唯一性,所以SQL類型的數(shù)據(jù)庫常用于對數(shù)據(jù)完整性較高的系統(tǒng)。MongoDB在這一方面是不如SQL類型的數(shù)據(jù)庫,且MongoDB沒有固定的Schema,正因為MongoDB少了一些這樣的約束條件,可以讓數(shù)據(jù)的存儲數(shù)據(jù)結(jié)構(gòu)更靈活,存儲速度更加快。

    (2)即時查詢能力

    MongoDB保留了關(guān)系型數(shù)據(jù)庫即時查詢的能力,保留了索引(底層是基于B tree)的能力。這一點汲取了關(guān)系型數(shù)據(jù)庫的優(yōu)點,相比于同類型的NoSQL redis 并沒有上述的能力。

    (3)復(fù)制能力

    MongoDB自身提供了副本集能將數(shù)據(jù)分布在多臺機器上實現(xiàn)冗余,目的是可以提供自動故障轉(zhuǎn)移、擴展讀能力。

    (4)速度與持久性

    MongoDB的驅(qū)動實現(xiàn)一個寫入語義 fire and forget ,即通過驅(qū)動調(diào)用寫入時,可以立即得到返回得到成功的結(jié)果(即使是報錯),這樣讓寫入的速度更加快,當(dāng)然會有一定的不安全性,完全依賴網(wǎng)絡(luò)。

    MongoDB提供了Journaling日志的概念,實際上像mysql的bin-log日志,當(dāng)需要插入的時候會先往日志里面寫入記錄,再完成實際的數(shù)據(jù)操作,這樣如果出現(xiàn)停電,進程突然中斷的情況,可以保障數(shù)據(jù)不會錯誤,可以通過修復(fù)功能讀取Journaling日志進行修復(fù)。

    (5)數(shù)據(jù)擴展

    MongoDB使用分片技術(shù)對數(shù)據(jù)進行擴展,MongoDB能自動分片、自動轉(zhuǎn)移分片里面的數(shù)據(jù)塊,讓每一個服務(wù)器里面存儲的數(shù)據(jù)都是一樣大小。

    MongoDB核心服務(wù)器主要是通過mongod程序啟動的,而且在啟動時不需對MongoDB使用的內(nèi)存進行配置,因為其設(shè)計哲學(xué)是內(nèi)存管理最好是交給操作系統(tǒng),缺少內(nèi)存配置是MongoDB的設(shè)計亮點,另外,還可通過mongos路由服務(wù)器使用分片功能。

    MongoDB的主要客戶端是可以交互的js shell 通過mongo啟動,使用js shell能使用js直接與MongoDB進行交流,像使用sql語句查詢mysql數(shù)據(jù)一樣使用js語法查詢MongoDB的數(shù)據(jù),另外還提供了各種語言的驅(qū)動包,方便各種語言的接入。

    mongodump和mongorestore,備份和恢復(fù)數(shù)據(jù)庫的標(biāo)準(zhǔn)工具。輸出BSON格式,遷移數(shù)據(jù)庫。

    mongoexport和mongoimport,用來導(dǎo)入導(dǎo)出JSON、CSV和TSV數(shù)據(jù),數(shù)據(jù)需要支持多格式時有用。mongoimport還能用與大數(shù)據(jù)集的初始導(dǎo)入,但是在導(dǎo)入前順便還要注意一下,為了能充分利用好mongoDB通常需要對數(shù)據(jù)模型做一些調(diào)整。

    mongosniff,網(wǎng)絡(luò)嗅探工具,用來觀察發(fā)送到數(shù)據(jù)庫的操作?;揪褪前丫W(wǎng)絡(luò)上傳輸?shù)腂SON轉(zhuǎn)換為易于人們閱讀的shell語句。

    因此,可以總結(jié)得到,MongoDB結(jié)合鍵值存儲和關(guān)系數(shù)據(jù)庫的最好特性。因為簡單,所以數(shù)據(jù)極快,而且相對容易伸縮還提供復(fù)雜查詢機制的數(shù)據(jù)庫。MongoDB需要跑在64位的服務(wù)器上面,且最好單獨部署,因為是數(shù)據(jù)庫,所以也需要對其進行熱備、冷備處理。

    因為本篇文章不是API手冊,所有這里對shell的使用也是基礎(chǔ)的介紹什么功能可以用什么語句,主要是為了展示使用MongoDB shell的方便性,如果需要知道具體的MongoDB shell語法可以查閱官方文檔。

    創(chuàng)建數(shù)據(jù)庫并不是必須的操作,數(shù)據(jù)庫與集合只有在第一次插入文檔時才會被創(chuàng)建,與對數(shù)據(jù)的動態(tài)處理方式是一致的。簡化并加速開發(fā)過程,而且有利于動態(tài)分配命名空間。如果擔(dān)心數(shù)據(jù)庫或集合被意外創(chuàng)建,可以開啟嚴格模式。

    以上的命令只是簡單實例,假設(shè)如果你之前沒有學(xué)習(xí)過任何數(shù)據(jù)庫語法,同時開始學(xué)sql查詢語法和MongoDB 查詢語法,你會發(fā)現(xiàn)哪一個更簡單呢?如果你使用的是java驅(qū)動去操作MongoDB,你會發(fā)現(xiàn)任何的查詢都像Hibernate提供出來的查詢方式一樣,只要構(gòu)建好一個查詢條件對象,便能輕松查詢(接下來會給出示例),博主之前熟悉ES6,所以入手MongoDB js shell完成沒問題,也正因為這樣簡潔,完善的查詢機制,深深的愛上了MongoDB。

    使用java驅(qū)動鏈接MongoDB是一件非常簡單的事情,簡單的引用,簡單的做增刪改查。在使用完java驅(qū)動后我才發(fā)現(xiàn)spring 對MongoDB 的封裝還不如官方自身提供出來的東西好用,下面簡單的展示一下使用。

    這里只舉例了簡單的鏈接與簡單的MongoDB操作,可見其操作的容易性。使用驅(qū)動時是基于TCP套接字與MongoDB進行通信的,如果查詢結(jié)果較多,恰好無法全部放進第一服務(wù)器中,將會向服務(wù)器發(fā)送一個getmore指令獲取下一批查詢結(jié)果。

    插入數(shù)據(jù)到服務(wù)器時間,不會等待服務(wù)器的響應(yīng),驅(qū)動會假設(shè)寫入是成功的,實際是使用客戶端生成對象id,但是該行為可以通過配置配置,可以通過安全模式開啟,安全模式可以校驗服務(wù)器端插入的錯誤。

    要清楚了解MongoDB的基本數(shù)據(jù)單元。在關(guān)系型數(shù)據(jù)庫中有帶列和行的數(shù)據(jù)表。而MongoDB數(shù)據(jù)的基本單元是BSON文檔,在鍵值中有指向不定類型值的鍵,MongoDB擁有即時查詢,但不支持聯(lián)結(jié)操作,簡單的鍵值存儲只能根據(jù)單個鍵來獲取值,不支持事務(wù),但支持多種原子更新操作。

    如讀寫比是怎樣的,需要何種查詢,數(shù)據(jù)是如何更新的,會不會存在什么并發(fā)問題,數(shù)據(jù)結(jié)構(gòu)化的程度是要求高還是低。系統(tǒng)本身的需求決定mysql還是MongoDB。

    在關(guān)于schema 的設(shè)計中要注意一些原則,比如:

    數(shù)據(jù)庫是集合的邏輯與物理分組,MongoDB沒有提供創(chuàng)建數(shù)據(jù)庫的語法,只有在插入集合時,數(shù)據(jù)庫才開始建立。創(chuàng)建數(shù)據(jù)庫后會在磁盤分配一組數(shù)據(jù)文件,所有集合、索引和數(shù)據(jù)庫的其他元數(shù)據(jù)都保存在這些文件中,查閱數(shù)據(jù)庫使用磁盤狀態(tài)可通過。

    集合是結(jié)構(gòu)上或概念上相似得文檔的容器,集合的名稱可以包含數(shù)字、字母或 . 符號,但必須以字母或數(shù)字開頭,完全。

    限定集合名不能超過128個字符,實際上 . 符號在集合中很有用,能提供某種虛擬命名空間,這是一種組織上的原則,和其他集合是一視同仁的。在集合中可以使用。

    其次是鍵值,在MongoDB里面所有的字符串都是UTF-8類型。數(shù)字類型包括double、int、long。日期類型都是UTC格式,所以在MongoDB里面看到的時間會比北京時間慢8小時。整個文檔大小會限制在16m以內(nèi),因為這樣可以防止創(chuàng)建難看的數(shù)據(jù)類型,且小文檔可以提升性能,批量插入文檔理想數(shù)字范圍是10~200,大小不能超過16MB。

    (1)索引能顯著減少獲取文檔的所需工作量,具體的對比可以通過 .explain()方法進行對比

    (2)解析查詢時MongoDB通過最優(yōu)計劃選擇一個索引進行查詢,當(dāng)沒有最適合索引時,會先不同的使用各個索引進行查詢,最終選出一個最優(yōu)索引做查詢

    (3)如果有一個a-b的復(fù)合索引,那么僅針對a的索引是冗余的

    (4)復(fù)合索引里的鍵的順序是很重要的

    (1)單鍵索引

    (2)復(fù)合索引

    (3)唯一性索引

    (4)稀疏索引

    如索引的字段會出現(xiàn)null的值,或是大量文檔都不包含被索引的鍵。

    如果數(shù)據(jù)集很大時,構(gòu)建索引將會花費很長的時間,且會影響程序性能,可通過

    當(dāng)使用 mongorestore 時會重新構(gòu)建索引。當(dāng)曾經(jīng)執(zhí)行過大規(guī)模的刪除時,可使用

    對索引進行壓縮,重建。

    (1)查閱慢查詢?nèi)罩?/p>

    (2)分析慢查詢

    注意新版本的MongoDB 的explain方法是需要參數(shù)的,不然只顯示普通的信息。

    本節(jié)同樣主要簡單呈現(xiàn)MongoDB副本集搭建的簡易性,與副本集的強壯性,監(jiān)控容易性

    提供主從復(fù)制能力,熱備能力,故障轉(zhuǎn)移能力

    實際上MongoDB對副本集的操作跟mysql主從操作是差不多的,先看一下mysql的主從數(shù)據(jù)流動過程

    而MongoDB主要依賴的日志文件是oplog

    寫操作先被記錄下來,添加到主節(jié)點的oplog里。與此同時,所有從結(jié)點復(fù)制oplog。首先,查看自己oplog里最后一條的時間戳;其次,查詢主節(jié)點oplog里所有大于此時間戳的條目;最后,把那些條目添加到自己的oplog里并應(yīng)用到自己的庫里。從節(jié)點使用長輪詢立即應(yīng)用來自主結(jié)點oplog的新條目。

    當(dāng)遇到以下情況,從節(jié)點會停止復(fù)制

    local數(shù)據(jù)庫保存了所有副本集元素據(jù)和oplog日志

    可以使用以下命令查看復(fù)制情況

    每個副本集成員每秒鐘ping一次其他所有成員,可以通過rs.status()看到節(jié)點上次的心跳檢測時間戳和 健康 狀況。

    這個點沒必要過多描述,但是有一個特殊場景,如果從節(jié)點和仲裁節(jié)點都被殺了,只剩下主節(jié)點,他會把自己降級成為從節(jié)點。

    如果主節(jié)點的數(shù)據(jù)還沒有寫到從庫,那么數(shù)據(jù)不能算提交,當(dāng)該主節(jié)點變成從節(jié)點時,便會觸發(fā)回滾,那些沒寫到從庫的數(shù)據(jù)將會被刪除,可以通過rollback子目錄中的BSON文件恢復(fù)回滾的內(nèi)容。

    (1)使用單節(jié)點鏈接

    只能鏈接到主節(jié)點,如果鏈接到從節(jié)點的話,會被拒絕寫入操作,但是如果沒有使用安全模式,因為mongo的fire and forget 特性,會把拒絕寫入的異常給吃掉。

    (2)使用副本集方式鏈接

    能根據(jù)寫入的情況自動進行故障轉(zhuǎn)移,但是當(dāng)副本集進行新的選舉時,還是會出現(xiàn)故障,如果不使用安全模式,依舊會出現(xiàn)寫不進去,但現(xiàn)實成功的情況。

    分片是數(shù)據(jù)庫切分的一個概念實現(xiàn),這里也是簡單總結(jié)為什么要使用分片以及分片的原理,操作。

    當(dāng)數(shù)據(jù)量過大,索引和工作數(shù)據(jù)集占用的內(nèi)存就會越來越多,所以需要通過分片負載來解決這個問題

    (1)分片組件

    (2)分片的核心操作

    分片一個集合:分片是根據(jù)一個屬性的范圍進行劃分的,MongoDB使用所謂的分片鍵讓每個文檔在這些范圍里找到自己的位置

    塊:是位于一個分片中的一段連續(xù)的分片鍵范圍,可以理解為若干個塊組成分片,分片組成MongoDB的全部數(shù)據(jù)

    (3)拆分與遷移

    塊的拆分:初始化時只有一個塊,達到最大塊尺寸64MB或100000個文檔就會觸發(fā)塊的拆分。把原來的范圍一分為二,這樣就有了兩個塊,每個塊都有相同數(shù)量的文檔。

    遷移:當(dāng)分片中的數(shù)據(jù)大小不一時會產(chǎn)生遷移的動作,比如分片A的數(shù)據(jù)比較多,會將分片A里面的一些塊轉(zhuǎn)移到分片B里面去。分片集群通過在分片中移動塊來實現(xiàn)均衡,是由名為均衡器的軟件進程管理的,任務(wù)是確保數(shù)據(jù)在各個分片中保持均勻分布,當(dāng)集群中擁有塊最多的分片與擁有塊最少分片的塊差大于8時,均衡器就會發(fā)起一次均衡處理。

    啟動兩個副本集、三個配置服務(wù)器、一個mongos進程

    配置分片

    (1)分片查詢類型

    (2)索引

    分片集合只允許在_id字段和分片鍵上添加唯一性索引,其他地方不行,因為這需要在分片間進行通信,實施起來很復(fù)雜。

    當(dāng)創(chuàng)建分片時,會根據(jù)分片鍵創(chuàng)建一個索引。

    (1)分片鍵是不可修改的、分片鍵的選擇非常重要

    (2)低效的分片鍵

    (3)理想的分片鍵

    (1)部署拓撲

    根據(jù)不同的數(shù)據(jù)中心劃分

    這里寫圖片描述

    (2)最低要求

    (3)配置的注意事項

    需要估計集群大小,可使用以下命令對現(xiàn)有集合進行分片處理

    (4)備份分片集群

    備份分片時需要停止均衡器

    (1)部署架構(gòu)

    使用64位機器、32位機器會制約mongodb的內(nèi)存,使其最大值為1.5GB

    (2)cpu

    mongodb 只有當(dāng)索引和工作集都可放入內(nèi)存時,才會遇到CPU瓶頸,CPU在mongodb使用中的作用是用來檢索數(shù)據(jù),如果看到CPU使用飽和的情況,可以通過查詢慢查詢?nèi)罩?,排查是不是查詢的問題導(dǎo)致的,如果是可以通過添加索引來解決問題

    mongodb寫入數(shù)據(jù)時會使用到CPU,但是mongodb寫入時間一次只用到一個核,如果有頻繁的寫入行為,可以通過分片來解決這個問題

    (3)內(nèi)存

    大內(nèi)存是mongodb的保障,如果工作集大小超過內(nèi)存,將會導(dǎo)致性能下降,因為這將會增加數(shù)據(jù)加載入內(nèi)存的動作

    (4)硬盤

    mongodb默認每60s會與磁盤強制同步一次,稱為后臺刷新,會產(chǎn)生I/O操作。在重啟時mongodb會將磁盤里面的數(shù)據(jù)加載至內(nèi)存,高速磁盤將會減少同步的時間

    (5)文件系統(tǒng)

    使用ext4 和 xfs 文件系統(tǒng)

    禁用最后訪問時間

    (6)文件描述符

    linux 默認文件描述符是1024,需要大額度的提升這個額度

    (7)時鐘

    mongodb各個節(jié)點服務(wù)器之間使用ntp服務(wù)器

    (1)綁定IP

    啟動時使用 - -bind_ip 命令

    (2)身份驗證

    啟動時使用 - -auth 命令

    (3)副本集身份認證

    使用keyFile,注意keyFile文件的權(quán)限必須是600,不然會啟動不起來

    (1)拓撲結(jié)構(gòu)

    搭建副本集至少需要兩個節(jié)點,其中仲裁結(jié)點不需要有自己的服務(wù)器

    (2)Journaling日志

    寫數(shù)據(jù)時會先寫入日志,而此時的數(shù)據(jù)也不是直接寫入硬盤,而是寫入內(nèi)存

    但是Journaling日志會消耗內(nèi)存,所以可以在主庫上面關(guān)閉,在從庫上面啟動

    可以單獨為Journaling日志使用一塊固態(tài)硬盤

    在插入時,可以通過驅(qū)動確保Journaling插入后再反饋,但是會非常影響性能。

    logpath 選項指定日志存儲地址

    -vvvvv 選項(v越多,輸出越詳細)

    db.runCommand({logrotare:1}) 開啟滾動日志

    (1)serverStatus

    這里寫圖片描述

    (2)top

    (3)db.currentOp()

    動態(tài)展示mongodb活動數(shù)據(jù)

    占用當(dāng)前mongodb監(jiān)聽端口往上1000號的端口

    (1)mongodump

    把數(shù)據(jù)庫內(nèi)容導(dǎo)出成BSON文件,而mongorestore能讀取并還原這些文件

    (2)mongorestore

    把導(dǎo)出的BSON文件還原到數(shù)據(jù)庫

    (3)備份原始數(shù)據(jù)文件

    可以這么做,但是,操作之前需要進行鎖庫處理 db.runCommand({fsync:1,lock:true})

    db.$cmd.sys.unlock.findOne() 請求解鎖操作,但是數(shù)據(jù)庫不會立刻解鎖,需要使用db.currentOp()驗證。

    (1)修復(fù)

    mongd --repair 修復(fù)所有數(shù)據(jù)庫

    db.runCommand({repairDatabase:1}) 修復(fù)單個數(shù)據(jù)庫

    修復(fù)就是根據(jù)Jourling文件讀取和重寫所有數(shù)據(jù)文件并重建各個索引

    (2)壓緊

    壓緊,會重寫數(shù)據(jù)文件,并重建集合的全部索引,需要停機或者在從庫上面運行,如果需要在主庫上面運行,需要添加force參數(shù) 保證加寫鎖。

    (1)監(jiān)控磁盤狀態(tài)

    (2)為提升性能檢查索引和查詢

    總的來說,掃描盡可能少的文檔。

    保證沒有冗余的索引,冗余的索引會占用磁盤空間、消耗更多的內(nèi)存,在每次寫入時還需做更多工作

    (3)添加內(nèi)存

    dataSize 數(shù)據(jù)大小 和 indexSize 索引大小,如果兩者的和大于內(nèi)存,那么將會影響性能。

    storageSize超過dataSize 數(shù)據(jù)大小 兩倍以上,就會因磁盤碎片而影響性能,需要壓縮。

    二、MySQL數(shù)據(jù)庫千萬級數(shù)據(jù)處理?

    也就是A表中保留B表中存在的數(shù)據(jù),可以通過篩選把這樣的數(shù)據(jù)放在第三個表

    只要索引合理,數(shù)據(jù)量不算大

    祝好運,望采納。

    redis慢查詢(redis慢查詢?nèi)罩荆?  src=

    三、面試中常問:mysql數(shù)據(jù)庫做哪些優(yōu)化也提高mysql性能

    在開始演示之前,我們先介紹下兩個概念。

    概念一,數(shù)據(jù)的可選擇性基數(shù),也就是常說的cardinality值。

    查詢優(yōu)化器在生成各種執(zhí)行計劃之前,得先從統(tǒng)計信息中取得相關(guān)數(shù)據(jù),這樣才能估算每步操作所涉及到的記錄數(shù),而這個相關(guān)數(shù)據(jù)就是cardinality。簡單來說,就是每個值在每個字段中的唯一值分布狀態(tài)。

    比如表t1有100行記錄,其中一列為f1。f1中唯一值的個數(shù)可以是100個,也可以是1個,當(dāng)然也可以是1到100之間的任何一個數(shù)字。這里唯一值越的多少,就是這個列的可選擇基數(shù)。

    那看到這里我們就明白了,為什么要在基數(shù)高的字段上建立索引,而基數(shù)低的的字段建立索引反而沒有全表掃描來的快。當(dāng)然這個只是一方面,至于更深入的探討就不在我這篇探討的范圍了。

    概念二,關(guān)于HINT的使用。

    這里我來說下HINT是什么,在什么時候用。

    HINT簡單來說就是在某些特定的場景下人工協(xié)助MySQL優(yōu)化器的工作,使她生成最優(yōu)的執(zhí)行計劃。一般來說,優(yōu)化器的執(zhí)行計劃都是最優(yōu)化的,不過在某些特定場景下,執(zhí)行計劃可能不是最優(yōu)化。

    比如:表t1經(jīng)過大量的頻繁更新操作,(UPDATE,DELETE,INSERT),cardinality已經(jīng)很不準(zhǔn)確了,這時候剛好執(zhí)行了一條SQL,那么有可能這條SQL的執(zhí)行計劃就不是最優(yōu)的。為什么說有可能呢?

    來看下具體演示

    譬如,以下兩條SQL,

    • A:

    • select * from t1 where f1 = 20;
    • B:

    • select * from t1 where f1 = 30;
    • 如果f1的值剛好頻繁更新的值為30,并且沒有達到MySQL自動更新cardinality值的臨界值或者說用戶設(shè)置了手動更新又或者用戶減少了sample page等等,那么對這兩條語句來說,可能不準(zhǔn)確的就是B了。

      這里順帶說下,MySQL提供了自動更新和手動更新表cardinality值的方法,因篇幅有限,需要的可以查閱手冊。

      那回到正題上,MySQL 8.0 帶來了幾個HINT,我今天就舉個index_merge的例子。

      示例表結(jié)構(gòu):

    • mysql> desc t1;+------------+--------------+------+-----+---------+----------------+| Field      | Type         | Null | Key | Default | Extra          |+------------+--------------+------+-----+---------+----------------+| id         | int(11)      | NO   | PRI | NULL    | auto_increment || rank1      | int(11)      | YES  | MUL | NULL    |                || rank2      | int(11)      | YES  | MUL | NULL    |                || log_time   | datetime     | YES  | MUL | NULL    |                || prefix_uid | varchar(100) | YES  |     | NULL    |                || desc1      | text         | YES  |     | NULL    |                || rank3      | int(11)      | YES  | MUL | NULL    |                |+------------+--------------+------+-----+---------+----------------+7 rows in set (0.00 sec)
    • 表記錄數(shù):

    • mysql> select count(*) from t1;+----------+| count(*) |+----------+|    32768 |+----------+1 row in set (0.01 sec)
    • 這里我們兩條經(jīng)典的SQL:

    • SQL C:

    • select * from t1 where rank1 = 1 or rank2 = 2 or rank3 = 2;
    • SQL D:

    • select * from t1 where rank1 =100  and rank2 =100  and rank3 =100;
    • 表t1實際上在rank1,rank2,rank3三列上分別有一個二級索引。

      那我們來看SQL C的查詢計劃。

      顯然,沒有用到任何索引,掃描的行數(shù)為32034,cost為3243.65。

    • mysql> explain  format=json select * from t1  where rank1 =1 or rank2 = 2 or rank3 = 2G*************************** 1. row ***************************EXPLAIN: {  "query_block": {    "select_id": 1,    "cost_info": {      "query_cost": "3243.65"    },    "table": {      "table_name": "t1",      "access_type": "ALL",      "possible_keys": [        "idx_rank1",        "idx_rank2",        "idx_rank3"      ],      "rows_examined_per_scan": 32034,      "rows_produced_per_join": 115,      "filtered": "0.36",      "cost_info": {        "read_cost": "3232.07",        "eval_cost": "11.58",        "prefix_cost": "3243.65",        "data_read_per_join": "49K"      },      "used_columns": [        "id",        "rank1",        "rank2",        "log_time",        "prefix_uid",        "desc1",        "rank3"      ],      "attached_condition": "((`ytt`.`t1`.`rank1` = 1) or (`ytt`.`t1`.`rank2` = 2) or (`ytt`.`t1`.`rank3` = 2))"    }  }}1 row in set, 1 warning (0.00 sec)
    • 我們加上hint給相同的查詢,再次看看查詢計劃。

      這個時候用到了index_merge,union了三個列。掃描的行數(shù)為1103,cost為441.09,明顯比之前的快了好幾倍。

    • mysql> explain  format=json select /*+ index_merge(t1) */ * from t1  where rank1 =1 or rank2 = 2 or rank3 = 2G*************************** 1. row ***************************EXPLAIN: {  "query_block": {    "select_id": 1,    "cost_info": {      "query_cost": "441.09"    },    "table": {      "table_name": "t1",      "access_type": "index_merge",      "possible_keys": [        "idx_rank1",        "idx_rank2",        "idx_rank3"      ],      "key": "union(idx_rank1,idx_rank2,idx_rank3)",      "key_length": "5,5,5",      "rows_examined_per_scan": 1103,      "rows_produced_per_join": 1103,      "filtered": "100.00",      "cost_info": {        "read_cost": "330.79",        "eval_cost": "110.30",        "prefix_cost": "441.09",        "data_read_per_join": "473K"      },      "used_columns": [        "id",        "rank1",        "rank2",        "log_time",        "prefix_uid",        "desc1",        "rank3"      ],      "attached_condition": "((`ytt`.`t1`.`rank1` = 1) or (`ytt`.`t1`.`rank2` = 2) or (`ytt`.`t1`.`rank3` = 2))"    }  }}1 row in set, 1 warning (0.00 sec)
    • 我們再看下SQL D的計劃:

    • 不加HINT,

    • mysql> explain format=json select * from t1 where rank1 =100 and rank2 =100 and rank3 =100G*************************** 1. row ***************************EXPLAIN: {  "query_block": {    "select_id": 1,    "cost_info": {      "query_cost": "534.34"    },    "table": {      "table_name": "t1",      "access_type": "ref",      "possible_keys": [        "idx_rank1",        "idx_rank2",        "idx_rank3"      ],      "key": "idx_rank1",      "used_key_parts": [        "rank1"      ],      "key_length": "5",      "ref": [        "const"      ],      "rows_examined_per_scan": 555,      "rows_produced_per_join": 0,      "filtered": "0.07",      "cost_info": {        "read_cost": "478.84",        "eval_cost": "0.04",        "prefix_cost": "534.34",        "data_read_per_join": "176"      },      "used_columns": [        "id",        "rank1",        "rank2",        "log_time",        "prefix_uid",        "desc1",        "rank3"      ],      "attached_condition": "((`ytt`.`t1`.`rank3` = 100) and (`ytt`.`t1`.`rank2` = 100))"    }  }}1 row in set, 1 warning (0.00 sec)
    • 加了HINT,

    • mysql> explain format=json select /*+ index_merge(t1)*/ * from t1 where rank1 =100 and rank2 =100 and rank3 =100G*************************** 1. row ***************************EXPLAIN: {  "query_block": {    "select_id": 1,    "cost_info": {      "query_cost": "5.23"    },    "table": {      "table_name": "t1",      "access_type": "index_merge",      "possible_keys": [        "idx_rank1",        "idx_rank2",        "idx_rank3"      ],      "key": "intersect(idx_rank1,idx_rank2,idx_rank3)",      "key_length": "5,5,5",      "rows_examined_per_scan": 1,      "rows_produced_per_join": 1,      "filtered": "100.00",      "cost_info": {        "read_cost": "5.13",        "eval_cost": "0.10",        "prefix_cost": "5.23",        "data_read_per_join": "440"      },      "used_columns": [        "id",        "rank1",        "rank2",        "log_time",        "prefix_uid",        "desc1",        "rank3"      ],      "attached_condition": "((`ytt`.`t1`.`rank3` = 100) and (`ytt`.`t1`.`rank2` = 100) and (`ytt`.`t1`.`rank1` = 100))"    }  }}1 row in set, 1 warning (0.00 sec)
    • 對比下以上兩個,加了HINT的比不加HINT的cost小了100倍。

      總結(jié)下,就是說表的cardinality值影響這張的查詢計劃,如果這個值沒有正常更新的話,就需要手工加HINT了。相信MySQL未來的版本會帶來更多的HINT。

    四、成為一個java的架構(gòu)師要學(xué)習(xí)哪些知識

    既然java架構(gòu)師,首先你要是一個高級java攻城尸,熟練使用各種框架,并知道它們實現(xiàn)的原理。jvm虛擬機原理、調(diào)優(yōu),懂得jvm能讓你寫出性能更好的代碼;池技術(shù),什么對象池,連接池,線程池...:;java反射技術(shù),寫框架必備的技術(shù),但是有嚴重的性能問題,替代方案java字節(jié)碼技術(shù);nio,沒什么好說的,值得注意的是"直接內(nèi)存"的特點,使用場景;java多線程同步異步;java各種集合對象的實現(xiàn)原理,了解這些可以讓你在解決問題時選擇合適的數(shù)據(jù)結(jié)構(gòu),高效的解決問題,比如hashmap的實現(xiàn)原理,好多五年以上經(jīng)驗的人都弄不清楚,還有為什擴容時有性能問題?不弄清楚這些原理,就寫不出高效的代碼,還會認為自己做的很對;總之一句話越基礎(chǔ)的東西越重要,很多人認為自己會用它們寫代碼了,其實僅僅是知道如何調(diào)用api而已,離會用還差的遠。

    熟練使用各種數(shù)據(jù)結(jié)構(gòu)和算法,數(shù)組、哈希、鏈表、排序樹...,一句話要么是時間換空間要么是空間換時間,這里展開可以說一大堆,需要有一定的應(yīng)用經(jīng)驗,用于解決各種性能或業(yè)務(wù)上的問題;有時間再補充。

    熟練使用linux操作系統(tǒng),必備,沒什么好說的 。

    熟悉tcp協(xié)議,創(chuàng)建連接三次握手和斷開連接四次握手的整個過程,不了解的話,無法對高并發(fā)網(wǎng)絡(luò)應(yīng)用做優(yōu)化; 熟悉http協(xié)議,尤其是http頭,我發(fā)現(xiàn)好多工作五年以上的都弄不清session和cookie的生命周期以及它們之間的關(guān)聯(lián)。

    系統(tǒng)集群、負載均衡、反向代理、動靜分離,網(wǎng)站靜態(tài)化 。

    分布式存儲系統(tǒng)nfs,fastdfs,tfs,Hadoop了解他們的優(yōu)缺點,適用場景 。

    分布式緩存技術(shù)memcached,redis,提高系統(tǒng)性能必備,一句話,把硬盤上的內(nèi)容放到內(nèi)存里來提速,順便提個算法一致性hash 。

    工具nginx必備技能超級好用,高性能,基本不會掛掉的服務(wù)器,功能多多,解決各種問題。

    數(shù)據(jù)庫的設(shè)計能力,mysql必備,最基礎(chǔ)的數(shù)據(jù)庫工具,免費好用,對它基本的參數(shù)優(yōu)化,慢查詢?nèi)罩痉治?,主從?fù)制的配置,至少要成為半個mysql dba。其他nosql數(shù)據(jù)庫如mongodb。

    還有隊列中間件。如消息推送,可以先把消息寫入數(shù)據(jù)庫,推送放隊列服務(wù)器上,由推送服務(wù)器去隊列獲取處理,這樣就可以將消息放數(shù)據(jù)庫和隊列里后直接給用戶反饋,推送過程則由推送服務(wù)器和隊列服務(wù)器完成,好處異步處理、緩解服務(wù)器壓力,解藕系統(tǒng)。

    以上純粹是常用的技術(shù),還有很多自己慢慢去摸索吧;因為要知道的東西很多,所以要成為一名合格的架構(gòu)師,必須要有強大的自學(xué)能力,沒有人會手把手的教給你所有的東西。

    想成為架構(gòu)師不是懂了一大堆技術(shù)就可以了,這些是解決問題的基礎(chǔ)、是工具,不懂這些怎么去提解決方案呢?這是成為架構(gòu)師的必要條件。

    架構(gòu)師還要針對業(yè)務(wù)特點、系統(tǒng)的性能要求提出能解決問題成本最低的設(shè)計方案才合格,人家一個幾百人用戶的系統(tǒng),訪問量不大,數(shù)據(jù)量小,你給人家上集群、上分布式存儲、上高端服務(wù)器,為了架構(gòu)而架構(gòu),這是最扯淡的,架構(gòu)師的作用就是第一滿足業(yè)務(wù)需求,第二最低的硬件網(wǎng)絡(luò)成本和技術(shù)維護成本。

    架構(gòu)師還要根據(jù)業(yè)務(wù)發(fā)展階段,提前預(yù)見發(fā)展到下一個階段系統(tǒng)架構(gòu)的解決方案,并且設(shè)計當(dāng)前架構(gòu)時將架構(gòu)的升級擴展考慮進去,做到易于升級;否則等系統(tǒng)瓶頸來了,出問題了再去出方案,或現(xiàn)有架構(gòu)無法擴展直接扔掉重做,或擴展麻煩問題一大堆,這會對企業(yè)造成損失;

    手機手工輸入的,想到哪里寫到哪里,很亂..做技術(shù)的,表達能力不強,將就著看吧,歡迎大家補充,互相學(xué)習(xí)交流,有學(xué)習(xí)有交流才有進步。

    剛用知乎發(fā)現(xiàn)它的編輯器真難用,發(fā)布后段落前面的空格沒有了,存草稿后回車換行沒有了,剛剛重新整理了一下

    以上就是關(guān)于redis慢查詢相關(guān)問題的回答。希望能幫到你,如有更多相關(guān)問題,您也可以聯(lián)系我們的客服進行咨詢,客服也會為您講解更多精彩的知識和內(nèi)容。


    推薦閱讀:

    redis一致性hash算法

    論文降重哪個比較可靠(papereasy論文降重)

    快照的作用(vmware虛擬機快照的作用)

    武漢環(huán)境景觀設(shè)計價格表(武漢環(huán)境景觀設(shè)計價格表圖片)

    抖音藍v可以更換執(zhí)照嗎(抖音藍v可以更換執(zhí)照嗎怎么弄)