mirror of
https://github.com/seaweedfs/seaweedfs.git
synced 2025-01-18 06:30:07 +08:00
more tests
This commit is contained in:
parent
e43d86c796
commit
9ad2dcca2b
@ -29,9 +29,9 @@ func NewTieredChunkCache(maxEntries int64, dir string, diskSizeInUnit int64, uni
|
|||||||
c.diskCaches = make([]*OnDiskCacheLayer, 3)
|
c.diskCaches = make([]*OnDiskCacheLayer, 3)
|
||||||
c.onDiskCacheSizeLimit0 = uint64(unitSize)
|
c.onDiskCacheSizeLimit0 = uint64(unitSize)
|
||||||
c.onDiskCacheSizeLimit1 = 4 * c.onDiskCacheSizeLimit0
|
c.onDiskCacheSizeLimit1 = 4 * c.onDiskCacheSizeLimit0
|
||||||
c.diskCaches[0] = NewOnDiskCacheLayer(dir, "c0_1", diskSizeInUnit*unitSize/4, 4)
|
c.diskCaches[0] = NewOnDiskCacheLayer(dir, "c0_2", diskSizeInUnit*unitSize/8, 2)
|
||||||
c.diskCaches[1] = NewOnDiskCacheLayer(dir, "c1_4", diskSizeInUnit*unitSize/4, 4)
|
c.diskCaches[1] = NewOnDiskCacheLayer(dir, "c1_3", diskSizeInUnit*unitSize/4+diskSizeInUnit*unitSize/8, 3)
|
||||||
c.diskCaches[2] = NewOnDiskCacheLayer(dir, "cache", diskSizeInUnit*unitSize/2, 4)
|
c.diskCaches[2] = NewOnDiskCacheLayer(dir, "c2_2", diskSizeInUnit*unitSize/2, 2)
|
||||||
|
|
||||||
return c
|
return c
|
||||||
}
|
}
|
||||||
@ -49,7 +49,7 @@ func (c *TieredChunkCache) GetChunk(fileId string, minSize uint64) (data []byte)
|
|||||||
|
|
||||||
func (c *TieredChunkCache) doGetChunk(fileId string, minSize uint64) (data []byte) {
|
func (c *TieredChunkCache) doGetChunk(fileId string, minSize uint64) (data []byte) {
|
||||||
|
|
||||||
if minSize < c.onDiskCacheSizeLimit0 {
|
if minSize <= c.onDiskCacheSizeLimit0 {
|
||||||
data = c.memCache.GetChunk(fileId)
|
data = c.memCache.GetChunk(fileId)
|
||||||
if len(data) >= int(minSize) {
|
if len(data) >= int(minSize) {
|
||||||
return data
|
return data
|
||||||
@ -62,13 +62,13 @@ func (c *TieredChunkCache) doGetChunk(fileId string, minSize uint64) (data []byt
|
|||||||
return nil
|
return nil
|
||||||
}
|
}
|
||||||
|
|
||||||
if minSize < c.onDiskCacheSizeLimit0 {
|
if minSize <= c.onDiskCacheSizeLimit0 {
|
||||||
data = c.diskCaches[0].getChunk(fid.Key)
|
data = c.diskCaches[0].getChunk(fid.Key)
|
||||||
if len(data) >= int(minSize) {
|
if len(data) >= int(minSize) {
|
||||||
return data
|
return data
|
||||||
}
|
}
|
||||||
}
|
}
|
||||||
if minSize < c.onDiskCacheSizeLimit1 {
|
if minSize <= c.onDiskCacheSizeLimit1 {
|
||||||
data = c.diskCaches[1].getChunk(fid.Key)
|
data = c.diskCaches[1].getChunk(fid.Key)
|
||||||
if len(data) >= int(minSize) {
|
if len(data) >= int(minSize) {
|
||||||
return data
|
return data
|
||||||
@ -99,7 +99,7 @@ func (c *TieredChunkCache) SetChunk(fileId string, data []byte) {
|
|||||||
|
|
||||||
func (c *TieredChunkCache) doSetChunk(fileId string, data []byte) {
|
func (c *TieredChunkCache) doSetChunk(fileId string, data []byte) {
|
||||||
|
|
||||||
if len(data) < int(c.onDiskCacheSizeLimit0) {
|
if len(data) <= int(c.onDiskCacheSizeLimit0) {
|
||||||
c.memCache.SetChunk(fileId, data)
|
c.memCache.SetChunk(fileId, data)
|
||||||
}
|
}
|
||||||
|
|
||||||
@ -109,9 +109,9 @@ func (c *TieredChunkCache) doSetChunk(fileId string, data []byte) {
|
|||||||
return
|
return
|
||||||
}
|
}
|
||||||
|
|
||||||
if len(data) < int(c.onDiskCacheSizeLimit0) {
|
if len(data) <= int(c.onDiskCacheSizeLimit0) {
|
||||||
c.diskCaches[0].setChunk(fid.Key, data)
|
c.diskCaches[0].setChunk(fid.Key, data)
|
||||||
} else if len(data) < int(c.onDiskCacheSizeLimit1) {
|
} else if len(data) <= int(c.onDiskCacheSizeLimit1) {
|
||||||
c.diskCaches[1].setChunk(fid.Key, data)
|
c.diskCaches[1].setChunk(fid.Key, data)
|
||||||
} else {
|
} else {
|
||||||
c.diskCaches[2].setChunk(fid.Key, data)
|
c.diskCaches[2].setChunk(fid.Key, data)
|
||||||
|
@ -34,9 +34,22 @@ func TestOnDisk(t *testing.T) {
|
|||||||
size: uint64(len(buff)),
|
size: uint64(len(buff)),
|
||||||
}
|
}
|
||||||
cache.SetChunk(testData[i].fileId, testData[i].data)
|
cache.SetChunk(testData[i].fileId, testData[i].data)
|
||||||
|
|
||||||
|
// read back right after write
|
||||||
|
data := cache.GetChunk(testData[i].fileId, testData[i].size)
|
||||||
|
if bytes.Compare(data, testData[i].data) != 0 {
|
||||||
|
t.Errorf("failed to write to and read from cache: %d", i)
|
||||||
|
}
|
||||||
}
|
}
|
||||||
|
|
||||||
for i := 0; i < writeCount; i++ {
|
for i := 0; i < 2; i++ {
|
||||||
|
data := cache.GetChunk(testData[i].fileId, testData[i].size)
|
||||||
|
if bytes.Compare(data, testData[i].data) == 0 {
|
||||||
|
t.Errorf("old cache should have been purged: %d", i)
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
for i := 2; i < writeCount; i++ {
|
||||||
data := cache.GetChunk(testData[i].fileId, testData[i].size)
|
data := cache.GetChunk(testData[i].fileId, testData[i].size)
|
||||||
if bytes.Compare(data, testData[i].data) != 0 {
|
if bytes.Compare(data, testData[i].data) != 0 {
|
||||||
t.Errorf("failed to write to and read from cache: %d", i)
|
t.Errorf("failed to write to and read from cache: %d", i)
|
||||||
@ -47,7 +60,14 @@ func TestOnDisk(t *testing.T) {
|
|||||||
|
|
||||||
cache = NewTieredChunkCache(0, tmpDir, totalDiskSizeInKB, 1024)
|
cache = NewTieredChunkCache(0, tmpDir, totalDiskSizeInKB, 1024)
|
||||||
|
|
||||||
for i := 0; i < writeCount; i++ {
|
for i := 0; i < 2; i++ {
|
||||||
|
data := cache.GetChunk(testData[i].fileId, testData[i].size)
|
||||||
|
if bytes.Compare(data, testData[i].data) == 0 {
|
||||||
|
t.Errorf("old cache should have been purged: %d", i)
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
for i := 2; i < writeCount; i++ {
|
||||||
data := cache.GetChunk(testData[i].fileId, testData[i].size)
|
data := cache.GetChunk(testData[i].fileId, testData[i].size)
|
||||||
if bytes.Compare(data, testData[i].data) != 0 {
|
if bytes.Compare(data, testData[i].data) != 0 {
|
||||||
t.Errorf("failed to write to and read from cache: %d", i)
|
t.Errorf("failed to write to and read from cache: %d", i)
|
||||||
|
Loading…
Reference in New Issue
Block a user