亚洲av成人无遮挡网站在线观看,少妇性bbb搡bbb爽爽爽,亚洲av日韩精品久久久久久,兔费看少妇性l交大片免费,无码少妇一区二区三区

Chinaunix

標題: 如何規(guī)劃部署網(wǎng)站的文件服務器?交流送好禮。ǐ@獎名單已公布。 [打印本頁]

作者: send_linux    時間: 2012-09-12 14:59
標題: 如何規(guī)劃部署網(wǎng)站的文件服務器?交流送好禮!(獲獎名單已公布。
獲獎名單已公布,詳情請看: http://72891.cn/thread-3775410-1-1.html

話題背景:

隨著代碼及圖片(特別是圖片)的不斷增多,NFS文件服務器壓力越來越大,NFS主備的方案可能在網(wǎng)站后期就頂不住壓力了,這個時候,很多高級系統(tǒng)管理員/系統(tǒng)架構(gòu)師會考慮用Nginx/Varnish作為文件緩存來緩解文件服務器壓力,這確實也是一種解決問題的思路;但現(xiàn)在分布式文件系統(tǒng)越來越流行和成熟,大家有沒有想過用MooseFS或GlusterFS來解決這個問題呢,如果你是作為公司的系統(tǒng)架構(gòu)師/系統(tǒng)管理員,你會考慮用哪種方案來部署你的文件服務器,是用NFS+DRBD雙機,還是MooseFS,亦或是GlusterFS?

本期話題:
1.結(jié)合網(wǎng)站當前情況,如何規(guī)劃文件系統(tǒng)部署。
2.NFS作為文件服務器的優(yōu)缺點。
3.MooseFS或GlusterFS的優(yōu)缺點。

本期嘉賓:
余慶(happyfish100)  FastDFS文件系作者
劉晗昭(wenzizone) 高級系統(tǒng)架構(gòu)師
胡安偉(king_819) 金游數(shù)據(jù)運維主管
崔曉輝( coralzd ) 大眾網(wǎng)高級系統(tǒng)管理員
劉鑫   高級系統(tǒng)運維工程師
余洪春(yuhongchun) 資深項目實施工程師、系統(tǒng)架構(gòu)師


獎項設置:
最佳案例分享獎:3名,獎勵CU毛衣/毛坎肩一件
最佳交流獎:3名,獎勵《CDN技術(shù)詳解》圖書一本
其他所有參與,且回復有效的用戶均可以獲得CU積分20分


ChinaUnix定制毛衣
作者: yuanzh78    時間: 2012-09-12 16:12
本來想用fdfs的,簡單好用
上面意思hadoop名氣大,用了好吹,就只好用hadoop
作者: yuanzh78    時間: 2012-09-12 16:15
地主啊 ,給兩萬分吧 ,衣服就不要了
作者: laputa73    時間: 2012-09-12 16:23
小系統(tǒng)還是考慮ngnix/squid吧。安裝簡單,有緩存。
NFS的好處就是方便,可以fopen, 但是消耗太大了。不適合劣質(zhì)網(wǎng)絡。
分布式文件系統(tǒng)很有吸引力,但是不知道那個好。而且機器少了還沒優(yōu)勢吧
作者: xdsnet    時間: 2012-09-12 17:17
其實還有一個方案就是利用諸如mongodb支持的GFS模式來提供分布式存儲方案,這樣數(shù)據(jù)庫和文件的分布式一起解決。
作者: yuhongchun    時間: 2012-09-12 17:26
提示: 作者被禁止或刪除 內(nèi)容自動屏蔽
作者: yuhongchun    時間: 2012-09-12 17:29
提示: 作者被禁止或刪除 內(nèi)容自動屏蔽
作者: yuhongchun    時間: 2012-09-12 17:30
提示: 作者被禁止或刪除 內(nèi)容自動屏蔽
作者: Gray1982    時間: 2012-09-12 17:32
1.當前情況考慮下,也考慮下將來幾年的擴展嘛
2.NFS的V4版本還是可以的,但它的各種IO在需要很大的情況還不太好
3.MFS看情況吧,文件大小多少需要不同的內(nèi)存,而且雖然說單點可以解決,不太建議用DRBD,一是有點麻煩,二是占用的網(wǎng)絡IO也不少。
作者: yuhongchun    時間: 2012-09-12 17:35
提示: 作者被禁止或刪除 內(nèi)容自動屏蔽
作者: yuhongchun    時間: 2012-09-12 17:41
提示: 作者被禁止或刪除 內(nèi)容自動屏蔽
作者: king_819    時間: 2012-09-12 17:46
回復 7# yuhongchun


    MooseFS的master server 很耗內(nèi)存,而且還存在單點故障,雖然有DRBD的解決方案
作者: yuhongchun    時間: 2012-09-12 17:51
提示: 作者被禁止或刪除 內(nèi)容自動屏蔽
作者: king_819    時間: 2012-09-12 17:54
回復 10# yuhongchun


NFS的缺點:
1.      可擴展性差,難以應用于大量存儲節(jié)點和客戶端的集群式(cluster)系統(tǒng);
2.      文件服務器的定位(location)對客戶端非透明,維護困難;
3.      緩存管理機制采用定期刷新機制,可能會發(fā)生文件不一致性問題;
4.      不支持數(shù)據(jù)復制,負載均衡等分布式文件系統(tǒng)的高級特性,很容易出現(xiàn)系統(tǒng)的性能瓶頸;
5.      NFS服務器的更換會迫使系統(tǒng)暫停服務
6.      對于異地服務的支持能力不強


總之,NFS太老了,對于追求海量數(shù)據(jù)吞吐量、存在成千上萬個客戶端和存儲節(jié)點的互聯(lián)網(wǎng)應用來說已經(jīng)力不從心了,只適合小范圍的應用了。

作者: king_819    時間: 2012-09-12 17:59
回復 13# yuhongchun


    GlusterFS在處理大量小文件上優(yōu)勢不大,由于沒有元數(shù)據(jù)服務器,因此增加了客戶端的負載,占用相當?shù)腃PU和內(nèi)存。

   在遍歷文件目錄時,則實現(xiàn)較為復雜和低效,需要搜索所有的存儲節(jié)點,因此不建議使用較深的路徑。

作者: Gray1982    時間: 2012-09-12 18:03
回復 10# yuhongchun


    是相對架構(gòu)上來說,不是操作
有的可以不用,能少一個是一個,簡潔
作者: coralzd    時間: 2012-09-12 18:05
優(yōu)選moosefs 實際生產(chǎn)環(huán)境檢驗。
作者: yuhongchun    時間: 2012-09-12 18:27
提示: 作者被禁止或刪除 內(nèi)容自動屏蔽
作者: king_819    時間: 2012-09-12 19:14
回復 18# yuhongchun


    各種存儲系統(tǒng)都有優(yōu)缺點,根椐實際需求來選擇適合自己的存儲系統(tǒng),NFS夠用的情況下就別去折騰什么MooseFS或GlusterFS,不要盲目跟風
作者: shine_forever    時間: 2012-09-12 19:44
MooseFS似乎只能存小文件,大文件存儲讀取十分有問題。!
作者: yuhongchun    時間: 2012-09-12 21:33
提示: 作者被禁止或刪除 內(nèi)容自動屏蔽
作者: yuhongchun    時間: 2012-09-12 21:34
提示: 作者被禁止或刪除 內(nèi)容自動屏蔽
作者: chenyx    時間: 2012-09-13 10:45
分布式文件系統(tǒng)暫時還么有用到,個人傾向于是用Nginx/Varnish作為文件緩存來緩解文件服務器的壓力.
作者: yuhongchun    時間: 2012-09-13 10:55
提示: 作者被禁止或刪除 內(nèi)容自動屏蔽
作者: chenyx    時間: 2012-09-13 10:59
回復 24# yuhongchun


    分布式確實是很不錯的解決方案,尤其在文件量級達到一定規(guī)模之后,小企業(yè)基本上很難達到那么大的規(guī)模的數(shù)據(jù)量
作者: yuhongchun    時間: 2012-09-13 11:01
提示: 作者被禁止或刪除 內(nèi)容自動屏蔽
作者: chenyx    時間: 2012-09-13 11:02
@yuhongchun 嗯,從企業(yè)長遠的發(fā)展來看,分布式fs是必須要考慮的問題,尤其是企業(yè)壯大之后.
作者: rucypli    時間: 2012-09-13 11:03
圖片緩存用zxtm+squid
圖片存儲用MogileFS
作者: chenyx    時間: 2012-09-13 11:04
不過,對于一般的應用,nginx/varnish緩存就可以解決,方案也很成熟了.將來可以將存儲部分分離,做到分布式存儲上面,一步到位的可能性很小.
作者: qingmiao1    時間: 2012-09-13 11:17
好好學習,天天向上。
作者: lxw2016    時間: 2012-09-13 11:23
條件夠的還是建議用分布式,不然以后擴展麻煩。
作者: expert1    時間: 2012-09-13 13:16
mark
作者: zhaopingzi    時間: 2012-09-13 17:02
本帖最后由 zhaopingzi 于 2012-09-13 17:02 編輯

nfs能不用就盡量不要用!,因為要涉及到網(wǎng)絡,網(wǎng)絡出問題,就完蛋,另外速度問題也應該是考慮進去的

本地沒有磁盤空間,只好用NFS掛載別的機器的磁盤分區(qū)了,我覺得這只是權(quán)宜之計。
作者: yuhongchun    時間: 2012-09-13 18:00
提示: 作者被禁止或刪除 內(nèi)容自動屏蔽
作者: pitonas    時間: 2012-09-14 09:07
毛衣ugly
作者: wau213    時間: 2012-09-14 09:17
中小企業(yè)無壓力    看看
作者: localhost2010    時間: 2012-09-14 10:03
                                       。
作者: localhost2010    時間: 2012-09-14 10:05
nfs可用于開發(fā)硬件時,從網(wǎng)絡上加載引導程序用,類似于網(wǎng)絡安裝
其他的用法沒用過
作者: beyondfly    時間: 2012-09-14 10:05
從企業(yè)的長久發(fā)展來考慮,還是采用分布式文件系統(tǒng)比較好,當圖片數(shù)量不斷增多時,采用分布式便于擴容
作者: yuhongchun    時間: 2012-09-14 10:26
提示: 作者被禁止或刪除 內(nèi)容自動屏蔽
作者: beyondfly    時間: 2012-09-14 12:01
回復 40# yuhongchun


    第一次離余版主這么近
作者: localhost2010    時間: 2012-09-14 13:07
是啊                       
作者: coralzd    時間: 2012-09-14 13:55
忠實的推薦用分布式,對于以后的架構(gòu)設計有很大的幫助,用商業(yè)存儲的有錢才行維護才行,moosefs是我用過的唯一的分布式,當然單點故障可以用的別的方案來彌補,總之moosefs適合web 方面文件。
作者: coralzd    時間: 2012-09-14 13:58
大多數(shù)的網(wǎng)站都在用linux,linux內(nèi)存管理優(yōu)秀,有cache機制,可以將大多數(shù)頻繁訪問的文件放入內(nèi)存,絕大部分避免了從共享存儲讀取的機會,所以就要求共享存儲方面的冗余機制要好,畢竟多年積攢的文件,不能全丟了吧。
作者: yuhongchun    時間: 2012-09-14 14:18
提示: 作者被禁止或刪除 內(nèi)容自動屏蔽
作者: yuhongchun    時間: 2012-09-14 14:18
提示: 作者被禁止或刪除 內(nèi)容自動屏蔽
作者: kellyseeme123    時間: 2012-09-14 14:47
目前服務器用的是NFS,單純的。。。。這個其他的懂的也不是很多了。。。
作者: yuhongchun    時間: 2012-09-14 14:50
提示: 作者被禁止或刪除 內(nèi)容自動屏蔽
作者: Purple_Grape    時間: 2012-09-14 15:45
NFS很平庸,沒分布式那么花哨,但部署維護簡單,用硬盤和緩存系統(tǒng)來擴展,中小企業(yè)夠用了。

用分布式的都是大佬,不缺錢和機器,將文件分門別類來區(qū)別處理。
作者: yuhongchun    時間: 2012-09-14 15:50
提示: 作者被禁止或刪除 內(nèi)容自動屏蔽
作者: coralzd    時間: 2012-09-14 16:47
Purple_Grape 發(fā)表于 2012-09-14 15:45
NFS很平庸,沒分布式那么花哨,但部署維護簡單,用硬盤和緩存系統(tǒng)來擴展,中小企業(yè)夠用了。

用分布式的都 ...

也不是說有錢才能玩分布式,中小企業(yè)也可以玩分布式滴,分布式?jīng)]有門檻。
作者: feiyueheu    時間: 2012-09-15 14:44
好熱鬧啊,自己沒喲部署過文件系統(tǒng),來學習啊。只是很多新技術(shù)都沒有聽說過。汗
作者: linux_shell    時間: 2012-09-15 23:23
本帖最后由 linux_shell 于 2012-09-15 23:26 編輯

    glusterfs 我們在一個節(jié)點上測試過,DELL r610 的,近200T 容量。小文件(16k以內(nèi))寫在3.5M左右,讀10M左右。300M 400M 500M 800M 1G 這種大文件做stripe模式的話讀在270M 左右, replicate 模式在117M 左右。最后我們先上使用的是distributed+replicated分布式模式。主要存儲視頻大文件。ps  :gfs對網(wǎng)絡要求很高,測試時網(wǎng)通機房的內(nèi)網(wǎng)貌似不穩(wěn)定socket通訊經(jīng)常失敗,導致多次重聯(lián)。建議內(nèi)網(wǎng)全部千兆線(至少H3C 交換機)。非常不適合web文件和小文件存儲,當然你pv不高就幾百萬,淘汰nfs還是可行的。
作者: linux_shell    時間: 2012-09-15 23:29
余大的 fdfs存儲小圖片非常適合,性能也非常不錯。之前我公司業(yè)務主要做搜索引擎和爬蟲圖片搜索,日采集入庫圖片5千萬張+都是用的余大的FastDFS,相當贊,比mfs glusterfs架構(gòu)模式確實好很多。話說fdfs 在V4版本如果支持大文件存儲的話,就更贊了,哈哈
作者: frogoscar    時間: 2012-09-16 02:00
Hadoop雖然是Java寫的,但是性能還不錯誒。
還可以配合Symfony什么的)
作者: fengjihu    時間: 2012-09-16 21:15
回復 53# linux_shell

gfs這個存儲視頻的話,比如1G-2G的視頻寫的速度也是在3.5/s嗎?讀能打到270M?這個是親測嗎?還有一個問題要問一下大家,如果即有大量的圖片,又有大量的視頻文件(一般1G-2G,有30%4G-6G的)這樣的話想上分布式的話是不是要用兩種分布式文件系統(tǒng)(條件允許的話)?如果想權(quán)衡一下,用一種,那最好是哪一種?
   
作者: linux_shell    時間: 2012-09-17 09:50
本帖最后由 linux_shell 于 2012-09-17 09:52 編輯

回復 57# fengjihu


    不是說了么,小文件在3.5M/S  大文件問讀都是 100多M/S。 寫在50-70之間。 GFS越大越無壓力,哈哈。 不適合做圖片小文件存儲

   你想讀在200多M/S的話 只能是單sprite模式,也就是類似“raid0” ,這樣數(shù)據(jù)是沒有冗余的,自己權(quán)衡吧。
作者: happy_fish100    時間: 2012-09-17 11:50
linux_shell 發(fā)表于 2012-09-15 23:29
余大的 fdfs存儲小圖片非常適合,性能也非常不錯。之前我公司業(yè)務主要做搜索引擎和爬蟲圖片搜索,日采集入庫 ...


大文件存儲優(yōu)化,主流做法就是分塊存儲吧,比如對大文件按64MB分塊存儲。
FastDFS本身是不需要文件索引的,可以根據(jù)文件ID直接定位到文件系統(tǒng)中的文件。
要對大文件分塊存儲,就會保存文件索引信息,勢必對FastDFS架構(gòu)造成非常大的調(diào)整。
因此FastDFS近期不考慮對大文件進行特殊支持。

作者: happy_fish100    時間: 2012-09-17 11:58
我一直堅持這個觀點:對于互聯(lián)網(wǎng)應用,用通用文件系統(tǒng),如mooseFS,clusterFS等,太廢紙,也就是性價比不高。
互聯(lián)網(wǎng)應用使用專用文件系統(tǒng),更合適一些。

大文件分塊這個特性,也是看你的應用場合的。比如HDFS,它的定位就是分布式計算,因此HDFS支持文件分塊,是天經(jīng)地義、順理成章的事情。
如果你最大的文件也就100多MB,采用文件分塊特性,就是自尋煩惱。
總結(jié)為一句話:只選擇合適的系統(tǒng)。用個醫(yī)學上的術(shù)語:對癥下猛藥!
作者: T-Bagwell    時間: 2012-09-17 12:33
比較贊同余總的說法

不過glusterfs其實還是有很多優(yōu)勢的
統(tǒng)一空間,內(nèi)容統(tǒng)一管理,就像使用本地磁盤一樣方便,大大節(jié)省了應用開發(fā)的時間
降低了應用部分的難度

至于說glusterfs不支持小文,其實可以考慮組合使用,還是不錯的
比如大文件存儲在gluster里,小文件單做一個其他的小文件系統(tǒng)有優(yōu)勢的文件系統(tǒng)上面,這樣的話就會方便很多


擴容方面,glusterfs目前還不是很帥,做起來比較齷齪,尤其是在reblance的時候,非常耗時
如果用infiniband網(wǎng)也許好些,用tcp就太遜色了,如果每個節(jié)點上再搞個客戶端,非常蛋疼,網(wǎng)絡流量對穿導致整個內(nèi)部流量非常大,大到想死


目前gluserfs還在進一步的開發(fā)中,還有很多比較有建設性的東西的

glusterfs的開發(fā)非常方便,加一個自己的模塊也很方便,都是xlator管理的,挺爽的
而且都是posix接口,就像正常使用本地pc一樣使用就可以了
只不過有些操作太耗時了,比如readdir

作者: yuhongchun    時間: 2012-09-18 09:26
提示: 作者被禁止或刪除 內(nèi)容自動屏蔽
作者: linux_shell    時間: 2012-09-18 09:39
會送一本書嗎,哈哈
作者: linux_shell    時間: 2012-09-18 09:41
回復 62# yuhongchun


    官方這里有很多類型的說明,照這個測試不錯。現(xiàn)在gfs外面的文檔都是一大抄,這里很詳細的
http://www.gluster.org/community ... index.php/Main_Page
作者: yuhongchun    時間: 2012-09-18 13:32
提示: 作者被禁止或刪除 內(nèi)容自動屏蔽
作者: T-Bagwell    時間: 2012-09-18 13:40
yuhongchun 發(fā)表于 2012-09-18 09:26
謝謝寶貴的線上經(jīng)驗分享,我們現(xiàn)在項目也準備上類似的需求,所以也決定多測試下GlusterFS。


如果應用場景不復雜的話,可以考慮
如果能夠自己改一下內(nèi)部實現(xiàn)的話,應該會好更多
讀,寫有的時候會搶流量, 可以考慮做讀寫分離

glusterfs本身性能并不高,只做存儲還是可以的,如果存web,估計需要自己搞個webcache

你們應用場景是什么呢
作者: yuhongchun    時間: 2012-09-18 14:11
提示: 作者被禁止或刪除 內(nèi)容自動屏蔽
作者: linux_shell    時間: 2012-09-18 15:14
回復 66# T-Bagwell


    我們主要存視頻文件
作者: linux_shell    時間: 2012-09-18 15:18
回復 65# yuhongchun


    發(fā)不了私信。我發(fā)你weibo 私信了,哈哈
作者: yuhongchun    時間: 2012-09-18 15:25
提示: 作者被禁止或刪除 內(nèi)容自動屏蔽
作者: T-Bagwell    時間: 2012-09-18 16:14
視頻存儲的話,夠用了
作者: linux_shell    時間: 2012-09-18 16:37
回復 1# send_linux


    求書
作者: jincheng7156    時間: 2012-09-19 10:14
Nginx/Varnish作為文件緩存來緩解文件服務器壓力,這個還不錯
作者: vectorT    時間: 2012-09-19 11:06
前端用nginx做調(diào)度,緩存,后端做memory cache,做動靜分離,使用NFS共享數(shù)據(jù),也是個不錯的選擇啊
作者: rucypli    時間: 2012-09-19 13:05
mogileFS沒人用嗎   用好了 哪個其實都不錯
作者: yuhongchun    時間: 2012-09-19 14:40
提示: 作者被禁止或刪除 內(nèi)容自動屏蔽
作者: whj814    時間: 2012-09-19 16:52
hadoop部署中,目前MFS。主要儲存圖片、視頻。感覺MFS還不出,元數(shù)據(jù)服務器主備結(jié)合,讀寫都很快。單臺28T。4臺存儲服務器,hadoop玩不轉(zhuǎn)啊。。。
作者: yuhongchun    時間: 2012-09-19 17:07
提示: 作者被禁止或刪除 內(nèi)容自動屏蔽
作者: chinafenghao    時間: 2012-09-19 23:30
各位大神,咱直接上硬件+SAN。
作者: T-Bagwell    時間: 2012-09-22 17:19
對了
glusterfs有一點處理的不好

就是節(jié)點端拔網(wǎng)線以后,處理會延時,延時很長時間
作者: Gray1982    時間: 2012-09-24 13:38
yuhongchun 發(fā)表于 2012-09-12 17:30
Hadoop是好用,但維護成本太高了:)


如果只是存文件,如果只是用hdfs,成本還是可以滴
作者: Gray1982    時間: 2012-09-24 13:39
yuhongchun 發(fā)表于 2012-09-12 17:41
我看有的同學解決網(wǎng)站文件壓力的方案也挺好的,將圖片服務器單獨獨立出來,形成pics.xxxx.com的域名或其它 ...


這種方案好像出來有段時間了,還是不錯的
作者: Gray1982    時間: 2012-09-24 13:40
回復 12# king_819


    單點早已經(jīng)解決
內(nèi)存的話在現(xiàn)在來說還不是個難事吧,內(nèi)存便宜了
作者: Gray1982    時間: 2012-09-24 13:41
king_819 發(fā)表于 2012-09-12 17:54
回復 10# yuhongchun


沒錯 文件多 讀取量大時就············
作者: Gray1982    時間: 2012-09-24 13:42
yuhongchun 發(fā)表于 2012-09-12 21:34
GlusterFS正好相反,對小文件支持得不是太好。



這玩意看需求,你那邊文件大小是怎么定義的???
作者: Gray1982    時間: 2012-09-24 13:43
chenyx 發(fā)表于 2012-09-13 10:59
回復 24# yuhongchun


分布式是必然的
作者: Gray1982    時間: 2012-09-24 13:47
whj814 發(fā)表于 2012-09-19 16:52
hadoop部署中,目前MFS。主要儲存圖片、視頻。感覺MFS還不出,元數(shù)據(jù)服務器主備結(jié)合,讀寫都很快。單臺28T。 ...


hadoop還是比較復雜的,如果你那只是存儲文件,MFS夠了
作者: yuhongchun    時間: 2012-09-25 11:16
提示: 作者被禁止或刪除 內(nèi)容自動屏蔽
作者: send_linux    時間: 2012-09-25 13:31
yuhongchun 發(fā)表于 2012-09-25 11:16
阿紫,小宇宙一下子爆發(fā)了?


估計是,嘿嘿,估計新書要發(fā)布了,很興奮!
作者: yuhongchun    時間: 2012-09-25 13:58
提示: 作者被禁止或刪除 內(nèi)容自動屏蔽
作者: cnleon    時間: 2012-09-25 15:09
我們一直還是glusterfs, 一個是可以方便的進行mount,然后是容錯機制比較好,最好是有多種分布式部署的方式可以選擇。
作者: Gray1982    時間: 2012-09-25 17:45
本帖最后由 Gray1982 于 2012-09-25 17:45 編輯

回復 90# yuhongchun


    學習學習,娃哈哈

最近事多,怎么地也得好好看看嘛,就是晚了點·······
作者: webdna    時間: 2012-09-25 19:50
想問一下,如果用來做mail,例如postfix,用戶也只有千級或萬級的話,用哪個好呢?
作者: yizhengming    時間: 2012-09-25 19:59
學習一下.........
作者: webdna    時間: 2012-09-25 20:49
NFS和GlusterFS 我都試了,服務器一掛了,其它客戶機內(nèi)容也全部沒有了,怎樣設置他們同等呢?即任一臺掛了重啟后也會同步另一臺的數(shù)據(jù)呢?
作者: webdna    時間: 2012-09-25 22:38
原來GlusterFS是盡量不要更改server上的東西,只改clients上的,
我用兩server一client測試,在server上刪除或創(chuàng)建文件夾,都有點問題,但cleint上沒問題。
作者: yuhongchun    時間: 2012-09-26 17:20
提示: 作者被禁止或刪除 內(nèi)容自動屏蔽
作者: yuhongchun    時間: 2012-09-27 09:50
提示: 作者被禁止或刪除 內(nèi)容自動屏蔽
作者: webdna    時間: 2012-09-27 09:52
回復 98# yuhongchun
都玩過了,還有thismail,exmail,umail試用等等,還是喜歡自己寫。要求也不是很高,保存明碼,殺毒和過濾就可以了。

   
作者: webdna    時間: 2012-09-27 09:54
問一個題外的,我這樣的簽名算不算廣告呢?如果算的話,我改掉。
作者: send_linux    時間: 2012-09-27 10:03
webdna 發(fā)表于 2012-09-27 09:54
問一個題外的,我這樣的簽名算不算廣告呢?如果算的話,我改掉。


算,請去掉,謝謝啦




歡迎光臨 Chinaunix (http://72891.cn/) Powered by Discuz! X3.2