下面講講關于處理MySQL大量數據去重的簡單方法,文字的奧妙在于貼近主題相關。所以,閑話就不談了,我們直接看下文吧,相信看完處理MySQL大量數據去重的簡單方法這篇文章你一定會有所受益。
南沙ssl適用于網站、小程序/APP、API接口等需要進行數據傳輸應用場景,ssl證書未來市場廣闊!成為成都創新互聯的ssl證書銷售渠道,可以享受市場價格4-6折優惠!如果有意向歡迎電話聯系或者加微信:028-86922220(備注:SSL證書合作)期待與您的合作!
因為有大量的重復數據,所以選擇的去重方法是通過聚合函數建立一個新的表,然后重命名。sql代碼如下:
create table tmp select * from table_name group by column1,column2;
然后呢,因為刪除過大量數據,所以id都快到600000了。。。看著太礙眼了,所以把id變成從1 開始了。方法是先把id字段刪除了,然后再增加id字段并設為自增長,好了,終于看著舒心了。。。三十多萬的數據去重后大概十八條數據,用時70s,估計幾千萬數據的時候我就該哭了,anyway,到時再說,繼續想想有什么好辦法。
注意:如果之前是按id排序的,改為從1開始后,不會和之前的順序一樣。會按照第二個字段重新排序的。
對于以上處理MySQL大量數據去重的簡單方法相關內容,大家還有什么不明白的地方嗎?或者想要了解更多相關,可以繼續關注我們的行業資訊板塊。
標題名稱:處理MySQL大量數據去重的簡單方法
URL地址:http://www.2m8n56k.cn/article12/jssigc.html
成都網站建設公司_創新互聯,為您提供軟件開發、網站設計、做網站、微信公眾號、移動網站建設、網站建設
聲明:本網站發布的內容(圖片、視頻和文字)以用戶投稿、用戶轉載內容為主,如果涉及侵權請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網站立場,如需處理請聯系客服。電話:028-86922220;郵箱:[email protected]。內容未經允許不得轉載,或轉載時需注明來源: 創新互聯