-
當(dāng)前位置:首頁 > 創(chuàng)意學(xué)院 > 技術(shù) > 專題列表 > 正文
A:
- select * from t1 where f1 = 20;
B:
- select * from t1 where f1 = 30;
- mysql> desc t1;+------------+--------------+------+-----+---------+----------------+| Field | Type | Null | Key | Default | Extra |+------------+--------------+------+-----+---------+----------------+| id | int(11) | NO | PRI | NULL | auto_increment || rank1 | int(11) | YES | MUL | NULL | || rank2 | int(11) | YES | MUL | NULL | || log_time | datetime | YES | MUL | NULL | || prefix_uid | varchar(100) | YES | | NULL | || desc1 | text | YES | | NULL | || rank3 | int(11) | YES | MUL | NULL | |+------------+--------------+------+-----+---------+----------------+7 rows in set (0.00 sec)
- mysql> select count(*) from t1;+----------+| count(*) |+----------+| 32768 |+----------+1 row in set (0.01 sec)
SQL C:
- select * from t1 where rank1 = 1 or rank2 = 2 or rank3 = 2;
SQL D:
- select * from t1 where rank1 =100 and rank2 =100 and rank3 =100;
- mysql> explain format=json select * from t1 where rank1 =1 or rank2 = 2 or rank3 = 2G*************************** 1. row ***************************EXPLAIN: { "query_block": { "select_id": 1, "cost_info": { "query_cost": "3243.65" }, "table": { "table_name": "t1", "access_type": "ALL", "possible_keys": [ "idx_rank1", "idx_rank2", "idx_rank3" ], "rows_examined_per_scan": 32034, "rows_produced_per_join": 115, "filtered": "0.36", "cost_info": { "read_cost": "3232.07", "eval_cost": "11.58", "prefix_cost": "3243.65", "data_read_per_join": "49K" }, "used_columns": [ "id", "rank1", "rank2", "log_time", "prefix_uid", "desc1", "rank3" ], "attached_condition": "((`ytt`.`t1`.`rank1` = 1) or (`ytt`.`t1`.`rank2` = 2) or (`ytt`.`t1`.`rank3` = 2))" } }}1 row in set, 1 warning (0.00 sec)
- mysql> explain format=json select /*+ index_merge(t1) */ * from t1 where rank1 =1 or rank2 = 2 or rank3 = 2G*************************** 1. row ***************************EXPLAIN: { "query_block": { "select_id": 1, "cost_info": { "query_cost": "441.09" }, "table": { "table_name": "t1", "access_type": "index_merge", "possible_keys": [ "idx_rank1", "idx_rank2", "idx_rank3" ], "key": "union(idx_rank1,idx_rank2,idx_rank3)", "key_length": "5,5,5", "rows_examined_per_scan": 1103, "rows_produced_per_join": 1103, "filtered": "100.00", "cost_info": { "read_cost": "330.79", "eval_cost": "110.30", "prefix_cost": "441.09", "data_read_per_join": "473K" }, "used_columns": [ "id", "rank1", "rank2", "log_time", "prefix_uid", "desc1", "rank3" ], "attached_condition": "((`ytt`.`t1`.`rank1` = 1) or (`ytt`.`t1`.`rank2` = 2) or (`ytt`.`t1`.`rank3` = 2))" } }}1 row in set, 1 warning (0.00 sec)
不加HINT,
- mysql> explain format=json select * from t1 where rank1 =100 and rank2 =100 and rank3 =100G*************************** 1. row ***************************EXPLAIN: { "query_block": { "select_id": 1, "cost_info": { "query_cost": "534.34" }, "table": { "table_name": "t1", "access_type": "ref", "possible_keys": [ "idx_rank1", "idx_rank2", "idx_rank3" ], "key": "idx_rank1", "used_key_parts": [ "rank1" ], "key_length": "5", "ref": [ "const" ], "rows_examined_per_scan": 555, "rows_produced_per_join": 0, "filtered": "0.07", "cost_info": { "read_cost": "478.84", "eval_cost": "0.04", "prefix_cost": "534.34", "data_read_per_join": "176" }, "used_columns": [ "id", "rank1", "rank2", "log_time", "prefix_uid", "desc1", "rank3" ], "attached_condition": "((`ytt`.`t1`.`rank3` = 100) and (`ytt`.`t1`.`rank2` = 100))" } }}1 row in set, 1 warning (0.00 sec)
加了HINT,
- mysql> explain format=json select /*+ index_merge(t1)*/ * from t1 where rank1 =100 and rank2 =100 and rank3 =100G*************************** 1. row ***************************EXPLAIN: { "query_block": { "select_id": 1, "cost_info": { "query_cost": "5.23" }, "table": { "table_name": "t1", "access_type": "index_merge", "possible_keys": [ "idx_rank1", "idx_rank2", "idx_rank3" ], "key": "intersect(idx_rank1,idx_rank2,idx_rank3)", "key_length": "5,5,5", "rows_examined_per_scan": 1, "rows_produced_per_join": 1, "filtered": "100.00", "cost_info": { "read_cost": "5.13", "eval_cost": "0.10", "prefix_cost": "5.23", "data_read_per_join": "440" }, "used_columns": [ "id", "rank1", "rank2", "log_time", "prefix_uid", "desc1", "rank3" ], "attached_condition": "((`ytt`.`t1`.`rank3` = 100) and (`ytt`.`t1`.`rank2` = 100) and (`ytt`.`t1`.`rank1` = 100))" } }}1 row in set, 1 warning (0.00 sec)
redis慢查詢(redis慢查詢?nèi)罩荆?/h1>
發(fā)布時間:2023-04-08 01:08:13
稿源:
創(chuàng)意嶺 閱讀:
139
大家好!今天讓創(chuàng)意嶺的小編來大家介紹下關(guān)于redis慢查詢的問題,以下是小編對此問題的歸納整理,讓我們一起來看看吧。
開始之前先推薦一個非常厲害的Ai人工智能工具,一鍵生成原創(chuàng)文章、方案、文案、工作計劃、工作報告、論文、代碼、作文、做題和對話答疑等等
只需要輸入關(guān)鍵詞,就能返回你想要的內(nèi)容,越精準(zhǔn),寫出的就越詳細,有微信小程序端、在線網(wǎng)頁版、PC客戶端
官網(wǎng):https://ai.de1919.com。
創(chuàng)意嶺作為行業(yè)內(nèi)優(yōu)秀的企業(yè),服務(wù)客戶遍布全球各地,如需了解SEO相關(guān)業(yè)務(wù)請撥打電話175-8598-2043,或添加微信:1454722008
本文目錄:
![redis慢查詢(redis慢查詢?nèi)罩荆? src=]()
一、MongoDB是什么,怎么用?看完你就知道了
MongoDB是一款為web應(yīng)用程序和互聯(lián)網(wǎng)基礎(chǔ)設(shè)施設(shè)計的數(shù)據(jù)庫管理系統(tǒng)。沒錯MongoDB就是數(shù)據(jù)庫,是NoSQL類型的數(shù)據(jù)庫。
(1)MongoDB提出的是文檔、集合的概念,使用BSON(類JSON)作為其數(shù)據(jù)模型結(jié)構(gòu),其結(jié)構(gòu)是面向?qū)ο蟮亩皇嵌S表,存儲一個用戶在MongoDB中是這樣子的。
使用這樣的數(shù)據(jù)模型,使得MongoDB能在生產(chǎn)環(huán)境中提供高讀寫的能力,吞吐量較于mysql等SQL數(shù)據(jù)庫大大增強。
(2)易伸縮,自動故障轉(zhuǎn)移。易伸縮指的是提供了分片能力,能對數(shù)據(jù)集進行分片,數(shù)據(jù)的存儲壓力分攤給多臺服務(wù)器。自動故障轉(zhuǎn)移是副本集的概念,MongoDB能檢測主節(jié)點是否存活,當(dāng)失活時能自動提升從節(jié)點為主節(jié)點,達到故障轉(zhuǎn)移。
(3)數(shù)據(jù)模型因為是面向?qū)ο蟮模钥梢员硎矩S富的、有層級的數(shù)據(jù)結(jié)構(gòu),比如博客系統(tǒng)中能把“評論”直接懟到“文章“的文檔中,而不必像myqsl一樣創(chuàng)建三張表來描述這樣的關(guān)系。
(1)文檔數(shù)據(jù)類型
SQL類型的數(shù)據(jù)庫是正規(guī)化的,可以通過主鍵或者外鍵的約束保證數(shù)據(jù)的完整性與唯一性,所以SQL類型的數(shù)據(jù)庫常用于對數(shù)據(jù)完整性較高的系統(tǒng)。MongoDB在這一方面是不如SQL類型的數(shù)據(jù)庫,且MongoDB沒有固定的Schema,正因為MongoDB少了一些這樣的約束條件,可以讓數(shù)據(jù)的存儲數(shù)據(jù)結(jié)構(gòu)更靈活,存儲速度更加快。
(2)即時查詢能力
MongoDB保留了關(guān)系型數(shù)據(jù)庫即時查詢的能力,保留了索引(底層是基于B tree)的能力。這一點汲取了關(guān)系型數(shù)據(jù)庫的優(yōu)點,相比于同類型的NoSQL redis 并沒有上述的能力。
(3)復(fù)制能力
MongoDB自身提供了副本集能將數(shù)據(jù)分布在多臺機器上實現(xiàn)冗余,目的是可以提供自動故障轉(zhuǎn)移、擴展讀能力。
(4)速度與持久性
MongoDB的驅(qū)動實現(xiàn)一個寫入語義 fire and forget ,即通過驅(qū)動調(diào)用寫入時,可以立即得到返回得到成功的結(jié)果(即使是報錯),這樣讓寫入的速度更加快,當(dāng)然會有一定的不安全性,完全依賴網(wǎng)絡(luò)。
MongoDB提供了Journaling日志的概念,實際上像mysql的bin-log日志,當(dāng)需要插入的時候會先往日志里面寫入記錄,再完成實際的數(shù)據(jù)操作,這樣如果出現(xiàn)停電,進程突然中斷的情況,可以保障數(shù)據(jù)不會錯誤,可以通過修復(fù)功能讀取Journaling日志進行修復(fù)。
(5)數(shù)據(jù)擴展
MongoDB使用分片技術(shù)對數(shù)據(jù)進行擴展,MongoDB能自動分片、自動轉(zhuǎn)移分片里面的數(shù)據(jù)塊,讓每一個服務(wù)器里面存儲的數(shù)據(jù)都是一樣大小。
MongoDB核心服務(wù)器主要是通過mongod程序啟動的,而且在啟動時不需對MongoDB使用的內(nèi)存進行配置,因為其設(shè)計哲學(xué)是內(nèi)存管理最好是交給操作系統(tǒng),缺少內(nèi)存配置是MongoDB的設(shè)計亮點,另外,還可通過mongos路由服務(wù)器使用分片功能。
MongoDB的主要客戶端是可以交互的js shell 通過mongo啟動,使用js shell能使用js直接與MongoDB進行交流,像使用sql語句查詢mysql數(shù)據(jù)一樣使用js語法查詢MongoDB的數(shù)據(jù),另外還提供了各種語言的驅(qū)動包,方便各種語言的接入。
mongodump和mongorestore,備份和恢復(fù)數(shù)據(jù)庫的標(biāo)準(zhǔn)工具。輸出BSON格式,遷移數(shù)據(jù)庫。
mongoexport和mongoimport,用來導(dǎo)入導(dǎo)出JSON、CSV和TSV數(shù)據(jù),數(shù)據(jù)需要支持多格式時有用。mongoimport還能用與大數(shù)據(jù)集的初始導(dǎo)入,但是在導(dǎo)入前順便還要注意一下,為了能充分利用好mongoDB通常需要對數(shù)據(jù)模型做一些調(diào)整。
mongosniff,網(wǎng)絡(luò)嗅探工具,用來觀察發(fā)送到數(shù)據(jù)庫的操作?;揪褪前丫W(wǎng)絡(luò)上傳輸?shù)腂SON轉(zhuǎn)換為易于人們閱讀的shell語句。
因此,可以總結(jié)得到,MongoDB結(jié)合鍵值存儲和關(guān)系數(shù)據(jù)庫的最好特性。因為簡單,所以數(shù)據(jù)極快,而且相對容易伸縮還提供復(fù)雜查詢機制的數(shù)據(jù)庫。MongoDB需要跑在64位的服務(wù)器上面,且最好單獨部署,因為是數(shù)據(jù)庫,所以也需要對其進行熱備、冷備處理。
因為本篇文章不是API手冊,所有這里對shell的使用也是基礎(chǔ)的介紹什么功能可以用什么語句,主要是為了展示使用MongoDB shell的方便性,如果需要知道具體的MongoDB shell語法可以查閱官方文檔。
創(chuàng)建數(shù)據(jù)庫并不是必須的操作,數(shù)據(jù)庫與集合只有在第一次插入文檔時才會被創(chuàng)建,與對數(shù)據(jù)的動態(tài)處理方式是一致的。簡化并加速開發(fā)過程,而且有利于動態(tài)分配命名空間。如果擔(dān)心數(shù)據(jù)庫或集合被意外創(chuàng)建,可以開啟嚴格模式。
以上的命令只是簡單實例,假設(shè)如果你之前沒有學(xué)習(xí)過任何數(shù)據(jù)庫語法,同時開始學(xué)sql查詢語法和MongoDB 查詢語法,你會發(fā)現(xiàn)哪一個更簡單呢?如果你使用的是java驅(qū)動去操作MongoDB,你會發(fā)現(xiàn)任何的查詢都像Hibernate提供出來的查詢方式一樣,只要構(gòu)建好一個查詢條件對象,便能輕松查詢(接下來會給出示例),博主之前熟悉ES6,所以入手MongoDB js shell完成沒問題,也正因為這樣簡潔,完善的查詢機制,深深的愛上了MongoDB。
使用java驅(qū)動鏈接MongoDB是一件非常簡單的事情,簡單的引用,簡單的做增刪改查。在使用完java驅(qū)動后我才發(fā)現(xiàn)spring 對MongoDB 的封裝還不如官方自身提供出來的東西好用,下面簡單的展示一下使用。
這里只舉例了簡單的鏈接與簡單的MongoDB操作,可見其操作的容易性。使用驅(qū)動時是基于TCP套接字與MongoDB進行通信的,如果查詢結(jié)果較多,恰好無法全部放進第一服務(wù)器中,將會向服務(wù)器發(fā)送一個getmore指令獲取下一批查詢結(jié)果。
插入數(shù)據(jù)到服務(wù)器時間,不會等待服務(wù)器的響應(yīng),驅(qū)動會假設(shè)寫入是成功的,實際是使用客戶端生成對象id,但是該行為可以通過配置配置,可以通過安全模式開啟,安全模式可以校驗服務(wù)器端插入的錯誤。
要清楚了解MongoDB的基本數(shù)據(jù)單元。在關(guān)系型數(shù)據(jù)庫中有帶列和行的數(shù)據(jù)表。而MongoDB數(shù)據(jù)的基本單元是BSON文檔,在鍵值中有指向不定類型值的鍵,MongoDB擁有即時查詢,但不支持聯(lián)結(jié)操作,簡單的鍵值存儲只能根據(jù)單個鍵來獲取值,不支持事務(wù),但支持多種原子更新操作。
如讀寫比是怎樣的,需要何種查詢,數(shù)據(jù)是如何更新的,會不會存在什么并發(fā)問題,數(shù)據(jù)結(jié)構(gòu)化的程度是要求高還是低。系統(tǒng)本身的需求決定mysql還是MongoDB。
在關(guān)于schema 的設(shè)計中要注意一些原則,比如:
數(shù)據(jù)庫是集合的邏輯與物理分組,MongoDB沒有提供創(chuàng)建數(shù)據(jù)庫的語法,只有在插入集合時,數(shù)據(jù)庫才開始建立。創(chuàng)建數(shù)據(jù)庫后會在磁盤分配一組數(shù)據(jù)文件,所有集合、索引和數(shù)據(jù)庫的其他元數(shù)據(jù)都保存在這些文件中,查閱數(shù)據(jù)庫使用磁盤狀態(tài)可通過。
集合是結(jié)構(gòu)上或概念上相似得文檔的容器,集合的名稱可以包含數(shù)字、字母或 . 符號,但必須以字母或數(shù)字開頭,完全。
限定集合名不能超過128個字符,實際上 . 符號在集合中很有用,能提供某種虛擬命名空間,這是一種組織上的原則,和其他集合是一視同仁的。在集合中可以使用。
其次是鍵值,在MongoDB里面所有的字符串都是UTF-8類型。數(shù)字類型包括double、int、long。日期類型都是UTC格式,所以在MongoDB里面看到的時間會比北京時間慢8小時。整個文檔大小會限制在16m以內(nèi),因為這樣可以防止創(chuàng)建難看的數(shù)據(jù)類型,且小文檔可以提升性能,批量插入文檔理想數(shù)字范圍是10~200,大小不能超過16MB。
(1)索引能顯著減少獲取文檔的所需工作量,具體的對比可以通過 .explain()方法進行對比
(2)解析查詢時MongoDB通過最優(yōu)計劃選擇一個索引進行查詢,當(dāng)沒有最適合索引時,會先不同的使用各個索引進行查詢,最終選出一個最優(yōu)索引做查詢
(3)如果有一個a-b的復(fù)合索引,那么僅針對a的索引是冗余的
(4)復(fù)合索引里的鍵的順序是很重要的
(1)單鍵索引
(2)復(fù)合索引
(3)唯一性索引
(4)稀疏索引
如索引的字段會出現(xiàn)null的值,或是大量文檔都不包含被索引的鍵。
如果數(shù)據(jù)集很大時,構(gòu)建索引將會花費很長的時間,且會影響程序性能,可通過
當(dāng)使用 mongorestore 時會重新構(gòu)建索引。當(dāng)曾經(jīng)執(zhí)行過大規(guī)模的刪除時,可使用
對索引進行壓縮,重建。
(1)查閱慢查詢?nèi)罩?/p>
(2)分析慢查詢
注意新版本的MongoDB 的explain方法是需要參數(shù)的,不然只顯示普通的信息。
本節(jié)同樣主要簡單呈現(xiàn)MongoDB副本集搭建的簡易性,與副本集的強壯性,監(jiān)控容易性
提供主從復(fù)制能力,熱備能力,故障轉(zhuǎn)移能力
實際上MongoDB對副本集的操作跟mysql主從操作是差不多的,先看一下mysql的主從數(shù)據(jù)流動過程
而MongoDB主要依賴的日志文件是oplog
寫操作先被記錄下來,添加到主節(jié)點的oplog里。與此同時,所有從結(jié)點復(fù)制oplog。首先,查看自己oplog里最后一條的時間戳;其次,查詢主節(jié)點oplog里所有大于此時間戳的條目;最后,把那些條目添加到自己的oplog里并應(yīng)用到自己的庫里。從節(jié)點使用長輪詢立即應(yīng)用來自主結(jié)點oplog的新條目。
當(dāng)遇到以下情況,從節(jié)點會停止復(fù)制
local數(shù)據(jù)庫保存了所有副本集元素據(jù)和oplog日志
可以使用以下命令查看復(fù)制情況
每個副本集成員每秒鐘ping一次其他所有成員,可以通過rs.status()看到節(jié)點上次的心跳檢測時間戳和 健康 狀況。
這個點沒必要過多描述,但是有一個特殊場景,如果從節(jié)點和仲裁節(jié)點都被殺了,只剩下主節(jié)點,他會把自己降級成為從節(jié)點。
如果主節(jié)點的數(shù)據(jù)還沒有寫到從庫,那么數(shù)據(jù)不能算提交,當(dāng)該主節(jié)點變成從節(jié)點時,便會觸發(fā)回滾,那些沒寫到從庫的數(shù)據(jù)將會被刪除,可以通過rollback子目錄中的BSON文件恢復(fù)回滾的內(nèi)容。
(1)使用單節(jié)點鏈接
只能鏈接到主節(jié)點,如果鏈接到從節(jié)點的話,會被拒絕寫入操作,但是如果沒有使用安全模式,因為mongo的fire and forget 特性,會把拒絕寫入的異常給吃掉。
(2)使用副本集方式鏈接
能根據(jù)寫入的情況自動進行故障轉(zhuǎn)移,但是當(dāng)副本集進行新的選舉時,還是會出現(xiàn)故障,如果不使用安全模式,依舊會出現(xiàn)寫不進去,但現(xiàn)實成功的情況。
分片是數(shù)據(jù)庫切分的一個概念實現(xiàn),這里也是簡單總結(jié)為什么要使用分片以及分片的原理,操作。
當(dāng)數(shù)據(jù)量過大,索引和工作數(shù)據(jù)集占用的內(nèi)存就會越來越多,所以需要通過分片負載來解決這個問題
(1)分片組件
(2)分片的核心操作
分片一個集合:分片是根據(jù)一個屬性的范圍進行劃分的,MongoDB使用所謂的分片鍵讓每個文檔在這些范圍里找到自己的位置
塊:是位于一個分片中的一段連續(xù)的分片鍵范圍,可以理解為若干個塊組成分片,分片組成MongoDB的全部數(shù)據(jù)
(3)拆分與遷移
塊的拆分:初始化時只有一個塊,達到最大塊尺寸64MB或100000個文檔就會觸發(fā)塊的拆分。把原來的范圍一分為二,這樣就有了兩個塊,每個塊都有相同數(shù)量的文檔。
遷移:當(dāng)分片中的數(shù)據(jù)大小不一時會產(chǎn)生遷移的動作,比如分片A的數(shù)據(jù)比較多,會將分片A里面的一些塊轉(zhuǎn)移到分片B里面去。分片集群通過在分片中移動塊來實現(xiàn)均衡,是由名為均衡器的軟件進程管理的,任務(wù)是確保數(shù)據(jù)在各個分片中保持均勻分布,當(dāng)集群中擁有塊最多的分片與擁有塊最少分片的塊差大于8時,均衡器就會發(fā)起一次均衡處理。
啟動兩個副本集、三個配置服務(wù)器、一個mongos進程
配置分片
(1)分片查詢類型
(2)索引
分片集合只允許在_id字段和分片鍵上添加唯一性索引,其他地方不行,因為這需要在分片間進行通信,實施起來很復(fù)雜。
當(dāng)創(chuàng)建分片時,會根據(jù)分片鍵創(chuàng)建一個索引。
(1)分片鍵是不可修改的、分片鍵的選擇非常重要
(2)低效的分片鍵
(3)理想的分片鍵
(1)部署拓撲
根據(jù)不同的數(shù)據(jù)中心劃分
這里寫圖片描述
(2)最低要求
(3)配置的注意事項
需要估計集群大小,可使用以下命令對現(xiàn)有集合進行分片處理
(4)備份分片集群
備份分片時需要停止均衡器
(1)部署架構(gòu)
使用64位機器、32位機器會制約mongodb的內(nèi)存,使其最大值為1.5GB
(2)cpu
mongodb 只有當(dāng)索引和工作集都可放入內(nèi)存時,才會遇到CPU瓶頸,CPU在mongodb使用中的作用是用來檢索數(shù)據(jù),如果看到CPU使用飽和的情況,可以通過查詢慢查詢?nèi)罩?,排查是不是查詢的問題導(dǎo)致的,如果是可以通過添加索引來解決問題
mongodb寫入數(shù)據(jù)時會使用到CPU,但是mongodb寫入時間一次只用到一個核,如果有頻繁的寫入行為,可以通過分片來解決這個問題
(3)內(nèi)存
大內(nèi)存是mongodb的保障,如果工作集大小超過內(nèi)存,將會導(dǎo)致性能下降,因為這將會增加數(shù)據(jù)加載入內(nèi)存的動作
(4)硬盤
mongodb默認每60s會與磁盤強制同步一次,稱為后臺刷新,會產(chǎn)生I/O操作。在重啟時mongodb會將磁盤里面的數(shù)據(jù)加載至內(nèi)存,高速磁盤將會減少同步的時間
(5)文件系統(tǒng)
使用ext4 和 xfs 文件系統(tǒng)
禁用最后訪問時間
(6)文件描述符
linux 默認文件描述符是1024,需要大額度的提升這個額度
(7)時鐘
mongodb各個節(jié)點服務(wù)器之間使用ntp服務(wù)器
(1)綁定IP
啟動時使用 - -bind_ip 命令
(2)身份驗證
啟動時使用 - -auth 命令
(3)副本集身份認證
使用keyFile,注意keyFile文件的權(quán)限必須是600,不然會啟動不起來
(1)拓撲結(jié)構(gòu)
搭建副本集至少需要兩個節(jié)點,其中仲裁結(jié)點不需要有自己的服務(wù)器
(2)Journaling日志
寫數(shù)據(jù)時會先寫入日志,而此時的數(shù)據(jù)也不是直接寫入硬盤,而是寫入內(nèi)存
但是Journaling日志會消耗內(nèi)存,所以可以在主庫上面關(guān)閉,在從庫上面啟動
可以單獨為Journaling日志使用一塊固態(tài)硬盤
在插入時,可以通過驅(qū)動確保Journaling插入后再反饋,但是會非常影響性能。
logpath 選項指定日志存儲地址
-vvvvv 選項(v越多,輸出越詳細)
db.runCommand({logrotare:1}) 開啟滾動日志
(1)serverStatus
這里寫圖片描述
(2)top
(3)db.currentOp()
動態(tài)展示mongodb活動數(shù)據(jù)
占用當(dāng)前mongodb監(jiān)聽端口往上1000號的端口
(1)mongodump
把數(shù)據(jù)庫內(nèi)容導(dǎo)出成BSON文件,而mongorestore能讀取并還原這些文件
(2)mongorestore
把導(dǎo)出的BSON文件還原到數(shù)據(jù)庫
(3)備份原始數(shù)據(jù)文件
可以這么做,但是,操作之前需要進行鎖庫處理 db.runCommand({fsync:1,lock:true})
db.$cmd.sys.unlock.findOne() 請求解鎖操作,但是數(shù)據(jù)庫不會立刻解鎖,需要使用db.currentOp()驗證。
(1)修復(fù)
mongd --repair 修復(fù)所有數(shù)據(jù)庫
db.runCommand({repairDatabase:1}) 修復(fù)單個數(shù)據(jù)庫
修復(fù)就是根據(jù)Jourling文件讀取和重寫所有數(shù)據(jù)文件并重建各個索引
(2)壓緊
壓緊,會重寫數(shù)據(jù)文件,并重建集合的全部索引,需要停機或者在從庫上面運行,如果需要在主庫上面運行,需要添加force參數(shù) 保證加寫鎖。
(1)監(jiān)控磁盤狀態(tài)
(2)為提升性能檢查索引和查詢
總的來說,掃描盡可能少的文檔。
保證沒有冗余的索引,冗余的索引會占用磁盤空間、消耗更多的內(nèi)存,在每次寫入時還需做更多工作
(3)添加內(nèi)存
dataSize 數(shù)據(jù)大小 和 indexSize 索引大小,如果兩者的和大于內(nèi)存,那么將會影響性能。
storageSize超過dataSize 數(shù)據(jù)大小 兩倍以上,就會因磁盤碎片而影響性能,需要壓縮。
二、MySQL數(shù)據(jù)庫千萬級數(shù)據(jù)處理?
也就是A表中保留B表中存在的數(shù)據(jù),可以通過篩選把這樣的數(shù)據(jù)放在第三個表
只要索引合理,數(shù)據(jù)量不算大
祝好運,望采納。
![redis慢查詢(redis慢查詢?nèi)罩荆? src=]()
三、面試中常問:mysql數(shù)據(jù)庫做哪些優(yōu)化也提高mysql性能
在開始演示之前,我們先介紹下兩個概念。
概念一,數(shù)據(jù)的可選擇性基數(shù),也就是常說的cardinality值。
查詢優(yōu)化器在生成各種執(zhí)行計劃之前,得先從統(tǒng)計信息中取得相關(guān)數(shù)據(jù),這樣才能估算每步操作所涉及到的記錄數(shù),而這個相關(guān)數(shù)據(jù)就是cardinality。簡單來說,就是每個值在每個字段中的唯一值分布狀態(tài)。
比如表t1有100行記錄,其中一列為f1。f1中唯一值的個數(shù)可以是100個,也可以是1個,當(dāng)然也可以是1到100之間的任何一個數(shù)字。這里唯一值越的多少,就是這個列的可選擇基數(shù)。
那看到這里我們就明白了,為什么要在基數(shù)高的字段上建立索引,而基數(shù)低的的字段建立索引反而沒有全表掃描來的快。當(dāng)然這個只是一方面,至于更深入的探討就不在我這篇探討的范圍了。
概念二,關(guān)于HINT的使用。
這里我來說下HINT是什么,在什么時候用。
HINT簡單來說就是在某些特定的場景下人工協(xié)助MySQL優(yōu)化器的工作,使她生成最優(yōu)的執(zhí)行計劃。一般來說,優(yōu)化器的執(zhí)行計劃都是最優(yōu)化的,不過在某些特定場景下,執(zhí)行計劃可能不是最優(yōu)化。
比如:表t1經(jīng)過大量的頻繁更新操作,(UPDATE,DELETE,INSERT),cardinality已經(jīng)很不準(zhǔn)確了,這時候剛好執(zhí)行了一條SQL,那么有可能這條SQL的執(zhí)行計劃就不是最優(yōu)的。為什么說有可能呢?
來看下具體演示
譬如,以下兩條SQL,
如果f1的值剛好頻繁更新的值為30,并且沒有達到MySQL自動更新cardinality值的臨界值或者說用戶設(shè)置了手動更新又或者用戶減少了sample page等等,那么對這兩條語句來說,可能不準(zhǔn)確的就是B了。
這里順帶說下,MySQL提供了自動更新和手動更新表cardinality值的方法,因篇幅有限,需要的可以查閱手冊。
那回到正題上,MySQL 8.0 帶來了幾個HINT,我今天就舉個index_merge的例子。
示例表結(jié)構(gòu):
表記錄數(shù):
這里我們兩條經(jīng)典的SQL:
表t1實際上在rank1,rank2,rank3三列上分別有一個二級索引。
那我們來看SQL C的查詢計劃。
顯然,沒有用到任何索引,掃描的行數(shù)為32034,cost為3243.65。
我們加上hint給相同的查詢,再次看看查詢計劃。
這個時候用到了index_merge,union了三個列。掃描的行數(shù)為1103,cost為441.09,明顯比之前的快了好幾倍。
我們再看下SQL D的計劃:
對比下以上兩個,加了HINT的比不加HINT的cost小了100倍。
總結(jié)下,就是說表的cardinality值影響這張的查詢計劃,如果這個值沒有正常更新的話,就需要手工加HINT了。相信MySQL未來的版本會帶來更多的HINT。
四、成為一個java的架構(gòu)師要學(xué)習(xí)哪些知識
既然java架構(gòu)師,首先你要是一個高級java攻城尸,熟練使用各種框架,并知道它們實現(xiàn)的原理。jvm虛擬機原理、調(diào)優(yōu),懂得jvm能讓你寫出性能更好的代碼;池技術(shù),什么對象池,連接池,線程池...:;java反射技術(shù),寫框架必備的技術(shù),但是有嚴重的性能問題,替代方案java字節(jié)碼技術(shù);nio,沒什么好說的,值得注意的是"直接內(nèi)存"的特點,使用場景;java多線程同步異步;java各種集合對象的實現(xiàn)原理,了解這些可以讓你在解決問題時選擇合適的數(shù)據(jù)結(jié)構(gòu),高效的解決問題,比如hashmap的實現(xiàn)原理,好多五年以上經(jīng)驗的人都弄不清楚,還有為什擴容時有性能問題?不弄清楚這些原理,就寫不出高效的代碼,還會認為自己做的很對;總之一句話越基礎(chǔ)的東西越重要,很多人認為自己會用它們寫代碼了,其實僅僅是知道如何調(diào)用api而已,離會用還差的遠。
熟練使用各種數(shù)據(jù)結(jié)構(gòu)和算法,數(shù)組、哈希、鏈表、排序樹...,一句話要么是時間換空間要么是空間換時間,這里展開可以說一大堆,需要有一定的應(yīng)用經(jīng)驗,用于解決各種性能或業(yè)務(wù)上的問題;有時間再補充。
熟練使用linux操作系統(tǒng),必備,沒什么好說的 。
熟悉tcp協(xié)議,創(chuàng)建連接三次握手和斷開連接四次握手的整個過程,不了解的話,無法對高并發(fā)網(wǎng)絡(luò)應(yīng)用做優(yōu)化; 熟悉http協(xié)議,尤其是http頭,我發(fā)現(xiàn)好多工作五年以上的都弄不清session和cookie的生命周期以及它們之間的關(guān)聯(lián)。
系統(tǒng)集群、負載均衡、反向代理、動靜分離,網(wǎng)站靜態(tài)化 。
分布式存儲系統(tǒng)nfs,fastdfs,tfs,Hadoop了解他們的優(yōu)缺點,適用場景 。
分布式緩存技術(shù)memcached,redis,提高系統(tǒng)性能必備,一句話,把硬盤上的內(nèi)容放到內(nèi)存里來提速,順便提個算法一致性hash 。
工具nginx必備技能超級好用,高性能,基本不會掛掉的服務(wù)器,功能多多,解決各種問題。
數(shù)據(jù)庫的設(shè)計能力,mysql必備,最基礎(chǔ)的數(shù)據(jù)庫工具,免費好用,對它基本的參數(shù)優(yōu)化,慢查詢?nèi)罩痉治?,主從?fù)制的配置,至少要成為半個mysql dba。其他nosql數(shù)據(jù)庫如mongodb。
還有隊列中間件。如消息推送,可以先把消息寫入數(shù)據(jù)庫,推送放隊列服務(wù)器上,由推送服務(wù)器去隊列獲取處理,這樣就可以將消息放數(shù)據(jù)庫和隊列里后直接給用戶反饋,推送過程則由推送服務(wù)器和隊列服務(wù)器完成,好處異步處理、緩解服務(wù)器壓力,解藕系統(tǒng)。
以上純粹是常用的技術(shù),還有很多自己慢慢去摸索吧;因為要知道的東西很多,所以要成為一名合格的架構(gòu)師,必須要有強大的自學(xué)能力,沒有人會手把手的教給你所有的東西。
想成為架構(gòu)師不是懂了一大堆技術(shù)就可以了,這些是解決問題的基礎(chǔ)、是工具,不懂這些怎么去提解決方案呢?這是成為架構(gòu)師的必要條件。
架構(gòu)師還要針對業(yè)務(wù)特點、系統(tǒng)的性能要求提出能解決問題成本最低的設(shè)計方案才合格,人家一個幾百人用戶的系統(tǒng),訪問量不大,數(shù)據(jù)量小,你給人家上集群、上分布式存儲、上高端服務(wù)器,為了架構(gòu)而架構(gòu),這是最扯淡的,架構(gòu)師的作用就是第一滿足業(yè)務(wù)需求,第二最低的硬件網(wǎng)絡(luò)成本和技術(shù)維護成本。
架構(gòu)師還要根據(jù)業(yè)務(wù)發(fā)展階段,提前預(yù)見發(fā)展到下一個階段系統(tǒng)架構(gòu)的解決方案,并且設(shè)計當(dāng)前架構(gòu)時將架構(gòu)的升級擴展考慮進去,做到易于升級;否則等系統(tǒng)瓶頸來了,出問題了再去出方案,或現(xiàn)有架構(gòu)無法擴展直接扔掉重做,或擴展麻煩問題一大堆,這會對企業(yè)造成損失;
手機手工輸入的,想到哪里寫到哪里,很亂..做技術(shù)的,表達能力不強,將就著看吧,歡迎大家補充,互相學(xué)習(xí)交流,有學(xué)習(xí)有交流才有進步。
剛用知乎發(fā)現(xiàn)它的編輯器真難用,發(fā)布后段落前面的空格沒有了,存草稿后回車換行沒有了,剛剛重新整理了一下
以上就是關(guān)于redis慢查詢相關(guān)問題的回答。希望能幫到你,如有更多相關(guān)問題,您也可以聯(lián)系我們的客服進行咨詢,客服也會為您講解更多精彩的知識和內(nèi)容。
推薦閱讀:
武漢環(huán)境景觀設(shè)計價格表(武漢環(huán)境景觀設(shè)計價格表圖片)
抖音藍v可以更換執(zhí)照嗎(抖音藍v可以更換執(zhí)照嗎怎么弄)
大家好!今天讓創(chuàng)意嶺的小編來大家介紹下關(guān)于redis慢查詢的問題,以下是小編對此問題的歸納整理,讓我們一起來看看吧。
開始之前先推薦一個非常厲害的Ai人工智能工具,一鍵生成原創(chuàng)文章、方案、文案、工作計劃、工作報告、論文、代碼、作文、做題和對話答疑等等
只需要輸入關(guān)鍵詞,就能返回你想要的內(nèi)容,越精準(zhǔn),寫出的就越詳細,有微信小程序端、在線網(wǎng)頁版、PC客戶端
官網(wǎng):https://ai.de1919.com。
創(chuàng)意嶺作為行業(yè)內(nèi)優(yōu)秀的企業(yè),服務(wù)客戶遍布全球各地,如需了解SEO相關(guān)業(yè)務(wù)請撥打電話175-8598-2043,或添加微信:1454722008
本文目錄:
一、MongoDB是什么,怎么用?看完你就知道了
MongoDB是一款為web應(yīng)用程序和互聯(lián)網(wǎng)基礎(chǔ)設(shè)施設(shè)計的數(shù)據(jù)庫管理系統(tǒng)。沒錯MongoDB就是數(shù)據(jù)庫,是NoSQL類型的數(shù)據(jù)庫。
(1)MongoDB提出的是文檔、集合的概念,使用BSON(類JSON)作為其數(shù)據(jù)模型結(jié)構(gòu),其結(jié)構(gòu)是面向?qū)ο蟮亩皇嵌S表,存儲一個用戶在MongoDB中是這樣子的。
使用這樣的數(shù)據(jù)模型,使得MongoDB能在生產(chǎn)環(huán)境中提供高讀寫的能力,吞吐量較于mysql等SQL數(shù)據(jù)庫大大增強。
(2)易伸縮,自動故障轉(zhuǎn)移。易伸縮指的是提供了分片能力,能對數(shù)據(jù)集進行分片,數(shù)據(jù)的存儲壓力分攤給多臺服務(wù)器。自動故障轉(zhuǎn)移是副本集的概念,MongoDB能檢測主節(jié)點是否存活,當(dāng)失活時能自動提升從節(jié)點為主節(jié)點,達到故障轉(zhuǎn)移。
(3)數(shù)據(jù)模型因為是面向?qū)ο蟮模钥梢员硎矩S富的、有層級的數(shù)據(jù)結(jié)構(gòu),比如博客系統(tǒng)中能把“評論”直接懟到“文章“的文檔中,而不必像myqsl一樣創(chuàng)建三張表來描述這樣的關(guān)系。
(1)文檔數(shù)據(jù)類型
SQL類型的數(shù)據(jù)庫是正規(guī)化的,可以通過主鍵或者外鍵的約束保證數(shù)據(jù)的完整性與唯一性,所以SQL類型的數(shù)據(jù)庫常用于對數(shù)據(jù)完整性較高的系統(tǒng)。MongoDB在這一方面是不如SQL類型的數(shù)據(jù)庫,且MongoDB沒有固定的Schema,正因為MongoDB少了一些這樣的約束條件,可以讓數(shù)據(jù)的存儲數(shù)據(jù)結(jié)構(gòu)更靈活,存儲速度更加快。
(2)即時查詢能力
MongoDB保留了關(guān)系型數(shù)據(jù)庫即時查詢的能力,保留了索引(底層是基于B tree)的能力。這一點汲取了關(guān)系型數(shù)據(jù)庫的優(yōu)點,相比于同類型的NoSQL redis 并沒有上述的能力。
(3)復(fù)制能力
MongoDB自身提供了副本集能將數(shù)據(jù)分布在多臺機器上實現(xiàn)冗余,目的是可以提供自動故障轉(zhuǎn)移、擴展讀能力。
(4)速度與持久性
MongoDB的驅(qū)動實現(xiàn)一個寫入語義 fire and forget ,即通過驅(qū)動調(diào)用寫入時,可以立即得到返回得到成功的結(jié)果(即使是報錯),這樣讓寫入的速度更加快,當(dāng)然會有一定的不安全性,完全依賴網(wǎng)絡(luò)。
MongoDB提供了Journaling日志的概念,實際上像mysql的bin-log日志,當(dāng)需要插入的時候會先往日志里面寫入記錄,再完成實際的數(shù)據(jù)操作,這樣如果出現(xiàn)停電,進程突然中斷的情況,可以保障數(shù)據(jù)不會錯誤,可以通過修復(fù)功能讀取Journaling日志進行修復(fù)。
(5)數(shù)據(jù)擴展
MongoDB使用分片技術(shù)對數(shù)據(jù)進行擴展,MongoDB能自動分片、自動轉(zhuǎn)移分片里面的數(shù)據(jù)塊,讓每一個服務(wù)器里面存儲的數(shù)據(jù)都是一樣大小。
MongoDB核心服務(wù)器主要是通過mongod程序啟動的,而且在啟動時不需對MongoDB使用的內(nèi)存進行配置,因為其設(shè)計哲學(xué)是內(nèi)存管理最好是交給操作系統(tǒng),缺少內(nèi)存配置是MongoDB的設(shè)計亮點,另外,還可通過mongos路由服務(wù)器使用分片功能。
MongoDB的主要客戶端是可以交互的js shell 通過mongo啟動,使用js shell能使用js直接與MongoDB進行交流,像使用sql語句查詢mysql數(shù)據(jù)一樣使用js語法查詢MongoDB的數(shù)據(jù),另外還提供了各種語言的驅(qū)動包,方便各種語言的接入。
mongodump和mongorestore,備份和恢復(fù)數(shù)據(jù)庫的標(biāo)準(zhǔn)工具。輸出BSON格式,遷移數(shù)據(jù)庫。
mongoexport和mongoimport,用來導(dǎo)入導(dǎo)出JSON、CSV和TSV數(shù)據(jù),數(shù)據(jù)需要支持多格式時有用。mongoimport還能用與大數(shù)據(jù)集的初始導(dǎo)入,但是在導(dǎo)入前順便還要注意一下,為了能充分利用好mongoDB通常需要對數(shù)據(jù)模型做一些調(diào)整。
mongosniff,網(wǎng)絡(luò)嗅探工具,用來觀察發(fā)送到數(shù)據(jù)庫的操作?;揪褪前丫W(wǎng)絡(luò)上傳輸?shù)腂SON轉(zhuǎn)換為易于人們閱讀的shell語句。
因此,可以總結(jié)得到,MongoDB結(jié)合鍵值存儲和關(guān)系數(shù)據(jù)庫的最好特性。因為簡單,所以數(shù)據(jù)極快,而且相對容易伸縮還提供復(fù)雜查詢機制的數(shù)據(jù)庫。MongoDB需要跑在64位的服務(wù)器上面,且最好單獨部署,因為是數(shù)據(jù)庫,所以也需要對其進行熱備、冷備處理。
因為本篇文章不是API手冊,所有這里對shell的使用也是基礎(chǔ)的介紹什么功能可以用什么語句,主要是為了展示使用MongoDB shell的方便性,如果需要知道具體的MongoDB shell語法可以查閱官方文檔。
創(chuàng)建數(shù)據(jù)庫并不是必須的操作,數(shù)據(jù)庫與集合只有在第一次插入文檔時才會被創(chuàng)建,與對數(shù)據(jù)的動態(tài)處理方式是一致的。簡化并加速開發(fā)過程,而且有利于動態(tài)分配命名空間。如果擔(dān)心數(shù)據(jù)庫或集合被意外創(chuàng)建,可以開啟嚴格模式。
以上的命令只是簡單實例,假設(shè)如果你之前沒有學(xué)習(xí)過任何數(shù)據(jù)庫語法,同時開始學(xué)sql查詢語法和MongoDB 查詢語法,你會發(fā)現(xiàn)哪一個更簡單呢?如果你使用的是java驅(qū)動去操作MongoDB,你會發(fā)現(xiàn)任何的查詢都像Hibernate提供出來的查詢方式一樣,只要構(gòu)建好一個查詢條件對象,便能輕松查詢(接下來會給出示例),博主之前熟悉ES6,所以入手MongoDB js shell完成沒問題,也正因為這樣簡潔,完善的查詢機制,深深的愛上了MongoDB。
使用java驅(qū)動鏈接MongoDB是一件非常簡單的事情,簡單的引用,簡單的做增刪改查。在使用完java驅(qū)動后我才發(fā)現(xiàn)spring 對MongoDB 的封裝還不如官方自身提供出來的東西好用,下面簡單的展示一下使用。
這里只舉例了簡單的鏈接與簡單的MongoDB操作,可見其操作的容易性。使用驅(qū)動時是基于TCP套接字與MongoDB進行通信的,如果查詢結(jié)果較多,恰好無法全部放進第一服務(wù)器中,將會向服務(wù)器發(fā)送一個getmore指令獲取下一批查詢結(jié)果。
插入數(shù)據(jù)到服務(wù)器時間,不會等待服務(wù)器的響應(yīng),驅(qū)動會假設(shè)寫入是成功的,實際是使用客戶端生成對象id,但是該行為可以通過配置配置,可以通過安全模式開啟,安全模式可以校驗服務(wù)器端插入的錯誤。
要清楚了解MongoDB的基本數(shù)據(jù)單元。在關(guān)系型數(shù)據(jù)庫中有帶列和行的數(shù)據(jù)表。而MongoDB數(shù)據(jù)的基本單元是BSON文檔,在鍵值中有指向不定類型值的鍵,MongoDB擁有即時查詢,但不支持聯(lián)結(jié)操作,簡單的鍵值存儲只能根據(jù)單個鍵來獲取值,不支持事務(wù),但支持多種原子更新操作。
如讀寫比是怎樣的,需要何種查詢,數(shù)據(jù)是如何更新的,會不會存在什么并發(fā)問題,數(shù)據(jù)結(jié)構(gòu)化的程度是要求高還是低。系統(tǒng)本身的需求決定mysql還是MongoDB。
在關(guān)于schema 的設(shè)計中要注意一些原則,比如:
數(shù)據(jù)庫是集合的邏輯與物理分組,MongoDB沒有提供創(chuàng)建數(shù)據(jù)庫的語法,只有在插入集合時,數(shù)據(jù)庫才開始建立。創(chuàng)建數(shù)據(jù)庫后會在磁盤分配一組數(shù)據(jù)文件,所有集合、索引和數(shù)據(jù)庫的其他元數(shù)據(jù)都保存在這些文件中,查閱數(shù)據(jù)庫使用磁盤狀態(tài)可通過。
集合是結(jié)構(gòu)上或概念上相似得文檔的容器,集合的名稱可以包含數(shù)字、字母或 . 符號,但必須以字母或數(shù)字開頭,完全。
限定集合名不能超過128個字符,實際上 . 符號在集合中很有用,能提供某種虛擬命名空間,這是一種組織上的原則,和其他集合是一視同仁的。在集合中可以使用。
其次是鍵值,在MongoDB里面所有的字符串都是UTF-8類型。數(shù)字類型包括double、int、long。日期類型都是UTC格式,所以在MongoDB里面看到的時間會比北京時間慢8小時。整個文檔大小會限制在16m以內(nèi),因為這樣可以防止創(chuàng)建難看的數(shù)據(jù)類型,且小文檔可以提升性能,批量插入文檔理想數(shù)字范圍是10~200,大小不能超過16MB。
(1)索引能顯著減少獲取文檔的所需工作量,具體的對比可以通過 .explain()方法進行對比
(2)解析查詢時MongoDB通過最優(yōu)計劃選擇一個索引進行查詢,當(dāng)沒有最適合索引時,會先不同的使用各個索引進行查詢,最終選出一個最優(yōu)索引做查詢
(3)如果有一個a-b的復(fù)合索引,那么僅針對a的索引是冗余的
(4)復(fù)合索引里的鍵的順序是很重要的
(1)單鍵索引
(2)復(fù)合索引
(3)唯一性索引
(4)稀疏索引
如索引的字段會出現(xiàn)null的值,或是大量文檔都不包含被索引的鍵。
如果數(shù)據(jù)集很大時,構(gòu)建索引將會花費很長的時間,且會影響程序性能,可通過
當(dāng)使用 mongorestore 時會重新構(gòu)建索引。當(dāng)曾經(jīng)執(zhí)行過大規(guī)模的刪除時,可使用
對索引進行壓縮,重建。
(1)查閱慢查詢?nèi)罩?/p>
(2)分析慢查詢
注意新版本的MongoDB 的explain方法是需要參數(shù)的,不然只顯示普通的信息。
本節(jié)同樣主要簡單呈現(xiàn)MongoDB副本集搭建的簡易性,與副本集的強壯性,監(jiān)控容易性
提供主從復(fù)制能力,熱備能力,故障轉(zhuǎn)移能力
實際上MongoDB對副本集的操作跟mysql主從操作是差不多的,先看一下mysql的主從數(shù)據(jù)流動過程
而MongoDB主要依賴的日志文件是oplog
寫操作先被記錄下來,添加到主節(jié)點的oplog里。與此同時,所有從結(jié)點復(fù)制oplog。首先,查看自己oplog里最后一條的時間戳;其次,查詢主節(jié)點oplog里所有大于此時間戳的條目;最后,把那些條目添加到自己的oplog里并應(yīng)用到自己的庫里。從節(jié)點使用長輪詢立即應(yīng)用來自主結(jié)點oplog的新條目。
當(dāng)遇到以下情況,從節(jié)點會停止復(fù)制
local數(shù)據(jù)庫保存了所有副本集元素據(jù)和oplog日志
可以使用以下命令查看復(fù)制情況
每個副本集成員每秒鐘ping一次其他所有成員,可以通過rs.status()看到節(jié)點上次的心跳檢測時間戳和 健康 狀況。
這個點沒必要過多描述,但是有一個特殊場景,如果從節(jié)點和仲裁節(jié)點都被殺了,只剩下主節(jié)點,他會把自己降級成為從節(jié)點。
如果主節(jié)點的數(shù)據(jù)還沒有寫到從庫,那么數(shù)據(jù)不能算提交,當(dāng)該主節(jié)點變成從節(jié)點時,便會觸發(fā)回滾,那些沒寫到從庫的數(shù)據(jù)將會被刪除,可以通過rollback子目錄中的BSON文件恢復(fù)回滾的內(nèi)容。
(1)使用單節(jié)點鏈接
只能鏈接到主節(jié)點,如果鏈接到從節(jié)點的話,會被拒絕寫入操作,但是如果沒有使用安全模式,因為mongo的fire and forget 特性,會把拒絕寫入的異常給吃掉。
(2)使用副本集方式鏈接
能根據(jù)寫入的情況自動進行故障轉(zhuǎn)移,但是當(dāng)副本集進行新的選舉時,還是會出現(xiàn)故障,如果不使用安全模式,依舊會出現(xiàn)寫不進去,但現(xiàn)實成功的情況。
分片是數(shù)據(jù)庫切分的一個概念實現(xiàn),這里也是簡單總結(jié)為什么要使用分片以及分片的原理,操作。
當(dāng)數(shù)據(jù)量過大,索引和工作數(shù)據(jù)集占用的內(nèi)存就會越來越多,所以需要通過分片負載來解決這個問題
(1)分片組件
(2)分片的核心操作
分片一個集合:分片是根據(jù)一個屬性的范圍進行劃分的,MongoDB使用所謂的分片鍵讓每個文檔在這些范圍里找到自己的位置
塊:是位于一個分片中的一段連續(xù)的分片鍵范圍,可以理解為若干個塊組成分片,分片組成MongoDB的全部數(shù)據(jù)
(3)拆分與遷移
塊的拆分:初始化時只有一個塊,達到最大塊尺寸64MB或100000個文檔就會觸發(fā)塊的拆分。把原來的范圍一分為二,這樣就有了兩個塊,每個塊都有相同數(shù)量的文檔。
遷移:當(dāng)分片中的數(shù)據(jù)大小不一時會產(chǎn)生遷移的動作,比如分片A的數(shù)據(jù)比較多,會將分片A里面的一些塊轉(zhuǎn)移到分片B里面去。分片集群通過在分片中移動塊來實現(xiàn)均衡,是由名為均衡器的軟件進程管理的,任務(wù)是確保數(shù)據(jù)在各個分片中保持均勻分布,當(dāng)集群中擁有塊最多的分片與擁有塊最少分片的塊差大于8時,均衡器就會發(fā)起一次均衡處理。
啟動兩個副本集、三個配置服務(wù)器、一個mongos進程
配置分片
(1)分片查詢類型
(2)索引
分片集合只允許在_id字段和分片鍵上添加唯一性索引,其他地方不行,因為這需要在分片間進行通信,實施起來很復(fù)雜。
當(dāng)創(chuàng)建分片時,會根據(jù)分片鍵創(chuàng)建一個索引。
(1)分片鍵是不可修改的、分片鍵的選擇非常重要
(2)低效的分片鍵
(3)理想的分片鍵
(1)部署拓撲
根據(jù)不同的數(shù)據(jù)中心劃分
這里寫圖片描述
(2)最低要求
(3)配置的注意事項
需要估計集群大小,可使用以下命令對現(xiàn)有集合進行分片處理
(4)備份分片集群
備份分片時需要停止均衡器
(1)部署架構(gòu)
使用64位機器、32位機器會制約mongodb的內(nèi)存,使其最大值為1.5GB
(2)cpu
mongodb 只有當(dāng)索引和工作集都可放入內(nèi)存時,才會遇到CPU瓶頸,CPU在mongodb使用中的作用是用來檢索數(shù)據(jù),如果看到CPU使用飽和的情況,可以通過查詢慢查詢?nèi)罩?,排查是不是查詢的問題導(dǎo)致的,如果是可以通過添加索引來解決問題
mongodb寫入數(shù)據(jù)時會使用到CPU,但是mongodb寫入時間一次只用到一個核,如果有頻繁的寫入行為,可以通過分片來解決這個問題
(3)內(nèi)存
大內(nèi)存是mongodb的保障,如果工作集大小超過內(nèi)存,將會導(dǎo)致性能下降,因為這將會增加數(shù)據(jù)加載入內(nèi)存的動作
(4)硬盤
mongodb默認每60s會與磁盤強制同步一次,稱為后臺刷新,會產(chǎn)生I/O操作。在重啟時mongodb會將磁盤里面的數(shù)據(jù)加載至內(nèi)存,高速磁盤將會減少同步的時間
(5)文件系統(tǒng)
使用ext4 和 xfs 文件系統(tǒng)
禁用最后訪問時間
(6)文件描述符
linux 默認文件描述符是1024,需要大額度的提升這個額度
(7)時鐘
mongodb各個節(jié)點服務(wù)器之間使用ntp服務(wù)器
(1)綁定IP
啟動時使用 - -bind_ip 命令
(2)身份驗證
啟動時使用 - -auth 命令
(3)副本集身份認證
使用keyFile,注意keyFile文件的權(quán)限必須是600,不然會啟動不起來
(1)拓撲結(jié)構(gòu)
搭建副本集至少需要兩個節(jié)點,其中仲裁結(jié)點不需要有自己的服務(wù)器
(2)Journaling日志
寫數(shù)據(jù)時會先寫入日志,而此時的數(shù)據(jù)也不是直接寫入硬盤,而是寫入內(nèi)存
但是Journaling日志會消耗內(nèi)存,所以可以在主庫上面關(guān)閉,在從庫上面啟動
可以單獨為Journaling日志使用一塊固態(tài)硬盤
在插入時,可以通過驅(qū)動確保Journaling插入后再反饋,但是會非常影響性能。
logpath 選項指定日志存儲地址
-vvvvv 選項(v越多,輸出越詳細)
db.runCommand({logrotare:1}) 開啟滾動日志
(1)serverStatus
這里寫圖片描述
(2)top
(3)db.currentOp()
動態(tài)展示mongodb活動數(shù)據(jù)
占用當(dāng)前mongodb監(jiān)聽端口往上1000號的端口
(1)mongodump
把數(shù)據(jù)庫內(nèi)容導(dǎo)出成BSON文件,而mongorestore能讀取并還原這些文件
(2)mongorestore
把導(dǎo)出的BSON文件還原到數(shù)據(jù)庫
(3)備份原始數(shù)據(jù)文件
可以這么做,但是,操作之前需要進行鎖庫處理 db.runCommand({fsync:1,lock:true})
db.$cmd.sys.unlock.findOne() 請求解鎖操作,但是數(shù)據(jù)庫不會立刻解鎖,需要使用db.currentOp()驗證。
(1)修復(fù)
mongd --repair 修復(fù)所有數(shù)據(jù)庫
db.runCommand({repairDatabase:1}) 修復(fù)單個數(shù)據(jù)庫
修復(fù)就是根據(jù)Jourling文件讀取和重寫所有數(shù)據(jù)文件并重建各個索引
(2)壓緊
壓緊,會重寫數(shù)據(jù)文件,并重建集合的全部索引,需要停機或者在從庫上面運行,如果需要在主庫上面運行,需要添加force參數(shù) 保證加寫鎖。
(1)監(jiān)控磁盤狀態(tài)
(2)為提升性能檢查索引和查詢
總的來說,掃描盡可能少的文檔。
保證沒有冗余的索引,冗余的索引會占用磁盤空間、消耗更多的內(nèi)存,在每次寫入時還需做更多工作
(3)添加內(nèi)存
dataSize 數(shù)據(jù)大小 和 indexSize 索引大小,如果兩者的和大于內(nèi)存,那么將會影響性能。
storageSize超過dataSize 數(shù)據(jù)大小 兩倍以上,就會因磁盤碎片而影響性能,需要壓縮。
二、MySQL數(shù)據(jù)庫千萬級數(shù)據(jù)處理?
也就是A表中保留B表中存在的數(shù)據(jù),可以通過篩選把這樣的數(shù)據(jù)放在第三個表
只要索引合理,數(shù)據(jù)量不算大
祝好運,望采納。
三、面試中常問:mysql數(shù)據(jù)庫做哪些優(yōu)化也提高mysql性能
在開始演示之前,我們先介紹下兩個概念。
概念一,數(shù)據(jù)的可選擇性基數(shù),也就是常說的cardinality值。
查詢優(yōu)化器在生成各種執(zhí)行計劃之前,得先從統(tǒng)計信息中取得相關(guān)數(shù)據(jù),這樣才能估算每步操作所涉及到的記錄數(shù),而這個相關(guān)數(shù)據(jù)就是cardinality。簡單來說,就是每個值在每個字段中的唯一值分布狀態(tài)。
比如表t1有100行記錄,其中一列為f1。f1中唯一值的個數(shù)可以是100個,也可以是1個,當(dāng)然也可以是1到100之間的任何一個數(shù)字。這里唯一值越的多少,就是這個列的可選擇基數(shù)。
那看到這里我們就明白了,為什么要在基數(shù)高的字段上建立索引,而基數(shù)低的的字段建立索引反而沒有全表掃描來的快。當(dāng)然這個只是一方面,至于更深入的探討就不在我這篇探討的范圍了。
概念二,關(guān)于HINT的使用。
這里我來說下HINT是什么,在什么時候用。
HINT簡單來說就是在某些特定的場景下人工協(xié)助MySQL優(yōu)化器的工作,使她生成最優(yōu)的執(zhí)行計劃。一般來說,優(yōu)化器的執(zhí)行計劃都是最優(yōu)化的,不過在某些特定場景下,執(zhí)行計劃可能不是最優(yōu)化。
比如:表t1經(jīng)過大量的頻繁更新操作,(UPDATE,DELETE,INSERT),cardinality已經(jīng)很不準(zhǔn)確了,這時候剛好執(zhí)行了一條SQL,那么有可能這條SQL的執(zhí)行計劃就不是最優(yōu)的。為什么說有可能呢?
來看下具體演示
譬如,以下兩條SQL,
如果f1的值剛好頻繁更新的值為30,并且沒有達到MySQL自動更新cardinality值的臨界值或者說用戶設(shè)置了手動更新又或者用戶減少了sample page等等,那么對這兩條語句來說,可能不準(zhǔn)確的就是B了。
這里順帶說下,MySQL提供了自動更新和手動更新表cardinality值的方法,因篇幅有限,需要的可以查閱手冊。
那回到正題上,MySQL 8.0 帶來了幾個HINT,我今天就舉個index_merge的例子。
示例表結(jié)構(gòu):
表記錄數(shù):
這里我們兩條經(jīng)典的SQL:
表t1實際上在rank1,rank2,rank3三列上分別有一個二級索引。
那我們來看SQL C的查詢計劃。
顯然,沒有用到任何索引,掃描的行數(shù)為32034,cost為3243.65。
我們加上hint給相同的查詢,再次看看查詢計劃。
這個時候用到了index_merge,union了三個列。掃描的行數(shù)為1103,cost為441.09,明顯比之前的快了好幾倍。
我們再看下SQL D的計劃:
對比下以上兩個,加了HINT的比不加HINT的cost小了100倍。
總結(jié)下,就是說表的cardinality值影響這張的查詢計劃,如果這個值沒有正常更新的話,就需要手工加HINT了。相信MySQL未來的版本會帶來更多的HINT。
四、成為一個java的架構(gòu)師要學(xué)習(xí)哪些知識
既然java架構(gòu)師,首先你要是一個高級java攻城尸,熟練使用各種框架,并知道它們實現(xiàn)的原理。jvm虛擬機原理、調(diào)優(yōu),懂得jvm能讓你寫出性能更好的代碼;池技術(shù),什么對象池,連接池,線程池...:;java反射技術(shù),寫框架必備的技術(shù),但是有嚴重的性能問題,替代方案java字節(jié)碼技術(shù);nio,沒什么好說的,值得注意的是"直接內(nèi)存"的特點,使用場景;java多線程同步異步;java各種集合對象的實現(xiàn)原理,了解這些可以讓你在解決問題時選擇合適的數(shù)據(jù)結(jié)構(gòu),高效的解決問題,比如hashmap的實現(xiàn)原理,好多五年以上經(jīng)驗的人都弄不清楚,還有為什擴容時有性能問題?不弄清楚這些原理,就寫不出高效的代碼,還會認為自己做的很對;總之一句話越基礎(chǔ)的東西越重要,很多人認為自己會用它們寫代碼了,其實僅僅是知道如何調(diào)用api而已,離會用還差的遠。
熟練使用各種數(shù)據(jù)結(jié)構(gòu)和算法,數(shù)組、哈希、鏈表、排序樹...,一句話要么是時間換空間要么是空間換時間,這里展開可以說一大堆,需要有一定的應(yīng)用經(jīng)驗,用于解決各種性能或業(yè)務(wù)上的問題;有時間再補充。
熟練使用linux操作系統(tǒng),必備,沒什么好說的 。
熟悉tcp協(xié)議,創(chuàng)建連接三次握手和斷開連接四次握手的整個過程,不了解的話,無法對高并發(fā)網(wǎng)絡(luò)應(yīng)用做優(yōu)化; 熟悉http協(xié)議,尤其是http頭,我發(fā)現(xiàn)好多工作五年以上的都弄不清session和cookie的生命周期以及它們之間的關(guān)聯(lián)。
系統(tǒng)集群、負載均衡、反向代理、動靜分離,網(wǎng)站靜態(tài)化 。
分布式存儲系統(tǒng)nfs,fastdfs,tfs,Hadoop了解他們的優(yōu)缺點,適用場景 。
分布式緩存技術(shù)memcached,redis,提高系統(tǒng)性能必備,一句話,把硬盤上的內(nèi)容放到內(nèi)存里來提速,順便提個算法一致性hash 。
工具nginx必備技能超級好用,高性能,基本不會掛掉的服務(wù)器,功能多多,解決各種問題。
數(shù)據(jù)庫的設(shè)計能力,mysql必備,最基礎(chǔ)的數(shù)據(jù)庫工具,免費好用,對它基本的參數(shù)優(yōu)化,慢查詢?nèi)罩痉治?,主從?fù)制的配置,至少要成為半個mysql dba。其他nosql數(shù)據(jù)庫如mongodb。
還有隊列中間件。如消息推送,可以先把消息寫入數(shù)據(jù)庫,推送放隊列服務(wù)器上,由推送服務(wù)器去隊列獲取處理,這樣就可以將消息放數(shù)據(jù)庫和隊列里后直接給用戶反饋,推送過程則由推送服務(wù)器和隊列服務(wù)器完成,好處異步處理、緩解服務(wù)器壓力,解藕系統(tǒng)。
以上純粹是常用的技術(shù),還有很多自己慢慢去摸索吧;因為要知道的東西很多,所以要成為一名合格的架構(gòu)師,必須要有強大的自學(xué)能力,沒有人會手把手的教給你所有的東西。
想成為架構(gòu)師不是懂了一大堆技術(shù)就可以了,這些是解決問題的基礎(chǔ)、是工具,不懂這些怎么去提解決方案呢?這是成為架構(gòu)師的必要條件。
架構(gòu)師還要針對業(yè)務(wù)特點、系統(tǒng)的性能要求提出能解決問題成本最低的設(shè)計方案才合格,人家一個幾百人用戶的系統(tǒng),訪問量不大,數(shù)據(jù)量小,你給人家上集群、上分布式存儲、上高端服務(wù)器,為了架構(gòu)而架構(gòu),這是最扯淡的,架構(gòu)師的作用就是第一滿足業(yè)務(wù)需求,第二最低的硬件網(wǎng)絡(luò)成本和技術(shù)維護成本。
架構(gòu)師還要根據(jù)業(yè)務(wù)發(fā)展階段,提前預(yù)見發(fā)展到下一個階段系統(tǒng)架構(gòu)的解決方案,并且設(shè)計當(dāng)前架構(gòu)時將架構(gòu)的升級擴展考慮進去,做到易于升級;否則等系統(tǒng)瓶頸來了,出問題了再去出方案,或現(xiàn)有架構(gòu)無法擴展直接扔掉重做,或擴展麻煩問題一大堆,這會對企業(yè)造成損失;
手機手工輸入的,想到哪里寫到哪里,很亂..做技術(shù)的,表達能力不強,將就著看吧,歡迎大家補充,互相學(xué)習(xí)交流,有學(xué)習(xí)有交流才有進步。
剛用知乎發(fā)現(xiàn)它的編輯器真難用,發(fā)布后段落前面的空格沒有了,存草稿后回車換行沒有了,剛剛重新整理了一下
以上就是關(guān)于redis慢查詢相關(guān)問題的回答。希望能幫到你,如有更多相關(guān)問題,您也可以聯(lián)系我們的客服進行咨詢,客服也會為您講解更多精彩的知識和內(nèi)容。
推薦閱讀:
武漢環(huán)境景觀設(shè)計價格表(武漢環(huán)境景觀設(shè)計價格表圖片)
抖音藍v可以更換執(zhí)照嗎(抖音藍v可以更換執(zhí)照嗎怎么弄)