f2fs: revisit inline_data to avoid data races and potential bugs
This patch simplifies the inline_data usage with the following rule. 1. inline_data is set during the file creation. 2. If new data is requested to be written ranges out of inline_data, f2fs converts that inode permanently. 3. There is no cases which converts non-inline_data inode to inline_data. 4. The inline_data flag should be changed under inode page lock. Signed-off-by: Jaegeuk Kim <jaegeuk@kernel.org>
This commit is contained in:
parent
1f7732fe6c
commit
b3d208f96d
|
@ -737,14 +737,14 @@ int f2fs_fiemap(struct inode *inode, struct fiemap_extent_info *fieinfo,
|
||||||
static int f2fs_read_data_page(struct file *file, struct page *page)
|
static int f2fs_read_data_page(struct file *file, struct page *page)
|
||||||
{
|
{
|
||||||
struct inode *inode = page->mapping->host;
|
struct inode *inode = page->mapping->host;
|
||||||
int ret;
|
int ret = -EAGAIN;
|
||||||
|
|
||||||
trace_f2fs_readpage(page, DATA);
|
trace_f2fs_readpage(page, DATA);
|
||||||
|
|
||||||
/* If the file has inline data, try to read it directly */
|
/* If the file has inline data, try to read it directly */
|
||||||
if (f2fs_has_inline_data(inode))
|
if (f2fs_has_inline_data(inode))
|
||||||
ret = f2fs_read_inline_data(inode, page);
|
ret = f2fs_read_inline_data(inode, page);
|
||||||
else
|
if (ret == -EAGAIN)
|
||||||
ret = mpage_readpage(page, get_data_block);
|
ret = mpage_readpage(page, get_data_block);
|
||||||
|
|
||||||
return ret;
|
return ret;
|
||||||
|
@ -856,10 +856,11 @@ write:
|
||||||
else if (has_not_enough_free_secs(sbi, 0))
|
else if (has_not_enough_free_secs(sbi, 0))
|
||||||
goto redirty_out;
|
goto redirty_out;
|
||||||
|
|
||||||
|
err = -EAGAIN;
|
||||||
f2fs_lock_op(sbi);
|
f2fs_lock_op(sbi);
|
||||||
if (f2fs_has_inline_data(inode) || f2fs_may_inline(inode))
|
if (f2fs_has_inline_data(inode))
|
||||||
err = f2fs_write_inline_data(inode, page, offset);
|
err = f2fs_write_inline_data(inode, page);
|
||||||
else
|
if (err == -EAGAIN)
|
||||||
err = do_write_data_page(page, &fio);
|
err = do_write_data_page(page, &fio);
|
||||||
f2fs_unlock_op(sbi);
|
f2fs_unlock_op(sbi);
|
||||||
done:
|
done:
|
||||||
|
@ -957,24 +958,14 @@ static int f2fs_write_begin(struct file *file, struct address_space *mapping,
|
||||||
|
|
||||||
f2fs_balance_fs(sbi);
|
f2fs_balance_fs(sbi);
|
||||||
repeat:
|
repeat:
|
||||||
err = f2fs_convert_inline_data(inode, pos + len, NULL);
|
|
||||||
if (err)
|
|
||||||
goto fail;
|
|
||||||
|
|
||||||
page = grab_cache_page_write_begin(mapping, index, flags);
|
page = grab_cache_page_write_begin(mapping, index, flags);
|
||||||
if (!page) {
|
if (!page) {
|
||||||
err = -ENOMEM;
|
err = -ENOMEM;
|
||||||
goto fail;
|
goto fail;
|
||||||
}
|
}
|
||||||
|
|
||||||
/* to avoid latency during memory pressure */
|
|
||||||
unlock_page(page);
|
|
||||||
|
|
||||||
*pagep = page;
|
*pagep = page;
|
||||||
|
|
||||||
if (f2fs_has_inline_data(inode) && (pos + len) <= MAX_INLINE_DATA)
|
|
||||||
goto inline_data;
|
|
||||||
|
|
||||||
f2fs_lock_op(sbi);
|
f2fs_lock_op(sbi);
|
||||||
|
|
||||||
/* check inline_data */
|
/* check inline_data */
|
||||||
|
@ -982,32 +973,42 @@ repeat:
|
||||||
if (IS_ERR(ipage))
|
if (IS_ERR(ipage))
|
||||||
goto unlock_fail;
|
goto unlock_fail;
|
||||||
|
|
||||||
if (f2fs_has_inline_data(inode)) {
|
set_new_dnode(&dn, inode, ipage, ipage, 0);
|
||||||
f2fs_put_page(ipage, 1);
|
|
||||||
f2fs_unlock_op(sbi);
|
|
||||||
f2fs_put_page(page, 0);
|
|
||||||
goto repeat;
|
|
||||||
}
|
|
||||||
|
|
||||||
set_new_dnode(&dn, inode, ipage, NULL, 0);
|
if (f2fs_has_inline_data(inode)) {
|
||||||
|
if (pos + len <= MAX_INLINE_DATA) {
|
||||||
|
read_inline_data(page, ipage);
|
||||||
|
set_inode_flag(F2FS_I(inode), FI_DATA_EXIST);
|
||||||
|
sync_inode_page(&dn);
|
||||||
|
goto put_next;
|
||||||
|
} else if (page->index == 0) {
|
||||||
|
err = f2fs_convert_inline_page(&dn, page);
|
||||||
|
if (err)
|
||||||
|
goto unlock_fail;
|
||||||
|
} else {
|
||||||
|
struct page *p = grab_cache_page(inode->i_mapping, 0);
|
||||||
|
if (!p) {
|
||||||
|
err = -ENOMEM;
|
||||||
|
goto unlock_fail;
|
||||||
|
}
|
||||||
|
err = f2fs_convert_inline_page(&dn, p);
|
||||||
|
f2fs_put_page(p, 1);
|
||||||
|
if (err)
|
||||||
|
goto unlock_fail;
|
||||||
|
}
|
||||||
|
}
|
||||||
err = f2fs_reserve_block(&dn, index);
|
err = f2fs_reserve_block(&dn, index);
|
||||||
if (err)
|
if (err)
|
||||||
goto unlock_fail;
|
goto unlock_fail;
|
||||||
|
put_next:
|
||||||
f2fs_put_dnode(&dn);
|
f2fs_put_dnode(&dn);
|
||||||
f2fs_unlock_op(sbi);
|
f2fs_unlock_op(sbi);
|
||||||
|
|
||||||
inline_data:
|
|
||||||
lock_page(page);
|
|
||||||
if (unlikely(page->mapping != mapping)) {
|
|
||||||
f2fs_put_page(page, 1);
|
|
||||||
goto repeat;
|
|
||||||
}
|
|
||||||
|
|
||||||
f2fs_wait_on_page_writeback(page, DATA);
|
|
||||||
|
|
||||||
if ((len == PAGE_CACHE_SIZE) || PageUptodate(page))
|
if ((len == PAGE_CACHE_SIZE) || PageUptodate(page))
|
||||||
return 0;
|
return 0;
|
||||||
|
|
||||||
|
f2fs_wait_on_page_writeback(page, DATA);
|
||||||
|
|
||||||
if ((pos & PAGE_CACHE_MASK) >= i_size_read(inode)) {
|
if ((pos & PAGE_CACHE_MASK) >= i_size_read(inode)) {
|
||||||
unsigned start = pos & (PAGE_CACHE_SIZE - 1);
|
unsigned start = pos & (PAGE_CACHE_SIZE - 1);
|
||||||
unsigned end = start + len;
|
unsigned end = start + len;
|
||||||
|
@ -1017,13 +1018,7 @@ inline_data:
|
||||||
goto out;
|
goto out;
|
||||||
}
|
}
|
||||||
|
|
||||||
if (f2fs_has_inline_data(inode)) {
|
if (dn.data_blkaddr == NEW_ADDR) {
|
||||||
err = f2fs_read_inline_data(inode, page);
|
|
||||||
if (err) {
|
|
||||||
page_cache_release(page);
|
|
||||||
goto fail;
|
|
||||||
}
|
|
||||||
} else if (dn.data_blkaddr == NEW_ADDR) {
|
|
||||||
zero_user_segment(page, 0, PAGE_CACHE_SIZE);
|
zero_user_segment(page, 0, PAGE_CACHE_SIZE);
|
||||||
} else {
|
} else {
|
||||||
err = f2fs_submit_page_bio(sbi, page, dn.data_blkaddr,
|
err = f2fs_submit_page_bio(sbi, page, dn.data_blkaddr,
|
||||||
|
@ -1049,7 +1044,7 @@ out:
|
||||||
|
|
||||||
unlock_fail:
|
unlock_fail:
|
||||||
f2fs_unlock_op(sbi);
|
f2fs_unlock_op(sbi);
|
||||||
f2fs_put_page(page, 0);
|
f2fs_put_page(page, 1);
|
||||||
fail:
|
fail:
|
||||||
f2fs_write_failed(mapping, pos + len);
|
f2fs_write_failed(mapping, pos + len);
|
||||||
return err;
|
return err;
|
||||||
|
@ -1102,9 +1097,12 @@ static ssize_t f2fs_direct_IO(int rw, struct kiocb *iocb,
|
||||||
size_t count = iov_iter_count(iter);
|
size_t count = iov_iter_count(iter);
|
||||||
int err;
|
int err;
|
||||||
|
|
||||||
/* Let buffer I/O handle the inline data case. */
|
/* we don't need to use inline_data strictly */
|
||||||
if (f2fs_has_inline_data(inode))
|
if (f2fs_has_inline_data(inode)) {
|
||||||
return 0;
|
err = f2fs_convert_inline_inode(inode);
|
||||||
|
if (err)
|
||||||
|
return err;
|
||||||
|
}
|
||||||
|
|
||||||
if (check_direct_IO(inode, rw, iter, offset))
|
if (check_direct_IO(inode, rw, iter, offset))
|
||||||
return 0;
|
return 0;
|
||||||
|
@ -1170,9 +1168,12 @@ static sector_t f2fs_bmap(struct address_space *mapping, sector_t block)
|
||||||
{
|
{
|
||||||
struct inode *inode = mapping->host;
|
struct inode *inode = mapping->host;
|
||||||
|
|
||||||
if (f2fs_has_inline_data(inode))
|
/* we don't need to use inline_data strictly */
|
||||||
return 0;
|
if (f2fs_has_inline_data(inode)) {
|
||||||
|
int err = f2fs_convert_inline_inode(inode);
|
||||||
|
if (err)
|
||||||
|
return err;
|
||||||
|
}
|
||||||
return generic_block_bmap(mapping, block, get_data_block);
|
return generic_block_bmap(mapping, block, get_data_block);
|
||||||
}
|
}
|
||||||
|
|
||||||
|
|
|
@ -1101,6 +1101,7 @@ enum {
|
||||||
FI_NEED_IPU, /* used for ipu per file */
|
FI_NEED_IPU, /* used for ipu per file */
|
||||||
FI_ATOMIC_FILE, /* indicate atomic file */
|
FI_ATOMIC_FILE, /* indicate atomic file */
|
||||||
FI_VOLATILE_FILE, /* indicate volatile file */
|
FI_VOLATILE_FILE, /* indicate volatile file */
|
||||||
|
FI_DATA_EXIST, /* indicate data exists */
|
||||||
};
|
};
|
||||||
|
|
||||||
static inline void set_inode_flag(struct f2fs_inode_info *fi, int flag)
|
static inline void set_inode_flag(struct f2fs_inode_info *fi, int flag)
|
||||||
|
@ -1135,6 +1136,8 @@ static inline void get_inline_info(struct f2fs_inode_info *fi,
|
||||||
set_inode_flag(fi, FI_INLINE_DATA);
|
set_inode_flag(fi, FI_INLINE_DATA);
|
||||||
if (ri->i_inline & F2FS_INLINE_DENTRY)
|
if (ri->i_inline & F2FS_INLINE_DENTRY)
|
||||||
set_inode_flag(fi, FI_INLINE_DENTRY);
|
set_inode_flag(fi, FI_INLINE_DENTRY);
|
||||||
|
if (ri->i_inline & F2FS_DATA_EXIST)
|
||||||
|
set_inode_flag(fi, FI_DATA_EXIST);
|
||||||
}
|
}
|
||||||
|
|
||||||
static inline void set_raw_inline(struct f2fs_inode_info *fi,
|
static inline void set_raw_inline(struct f2fs_inode_info *fi,
|
||||||
|
@ -1148,6 +1151,8 @@ static inline void set_raw_inline(struct f2fs_inode_info *fi,
|
||||||
ri->i_inline |= F2FS_INLINE_DATA;
|
ri->i_inline |= F2FS_INLINE_DATA;
|
||||||
if (is_inode_flag_set(fi, FI_INLINE_DENTRY))
|
if (is_inode_flag_set(fi, FI_INLINE_DENTRY))
|
||||||
ri->i_inline |= F2FS_INLINE_DENTRY;
|
ri->i_inline |= F2FS_INLINE_DENTRY;
|
||||||
|
if (is_inode_flag_set(fi, FI_DATA_EXIST))
|
||||||
|
ri->i_inline |= F2FS_DATA_EXIST;
|
||||||
}
|
}
|
||||||
|
|
||||||
static inline int f2fs_has_inline_xattr(struct inode *inode)
|
static inline int f2fs_has_inline_xattr(struct inode *inode)
|
||||||
|
@ -1182,6 +1187,17 @@ static inline int f2fs_has_inline_data(struct inode *inode)
|
||||||
return is_inode_flag_set(F2FS_I(inode), FI_INLINE_DATA);
|
return is_inode_flag_set(F2FS_I(inode), FI_INLINE_DATA);
|
||||||
}
|
}
|
||||||
|
|
||||||
|
static inline void f2fs_clear_inline_inode(struct inode *inode)
|
||||||
|
{
|
||||||
|
clear_inode_flag(F2FS_I(inode), FI_INLINE_DATA);
|
||||||
|
clear_inode_flag(F2FS_I(inode), FI_DATA_EXIST);
|
||||||
|
}
|
||||||
|
|
||||||
|
static inline int f2fs_exist_data(struct inode *inode)
|
||||||
|
{
|
||||||
|
return is_inode_flag_set(F2FS_I(inode), FI_DATA_EXIST);
|
||||||
|
}
|
||||||
|
|
||||||
static inline bool f2fs_is_atomic_file(struct inode *inode)
|
static inline bool f2fs_is_atomic_file(struct inode *inode)
|
||||||
{
|
{
|
||||||
return is_inode_flag_set(F2FS_I(inode), FI_ATOMIC_FILE);
|
return is_inode_flag_set(F2FS_I(inode), FI_ATOMIC_FILE);
|
||||||
|
@ -1590,10 +1606,12 @@ extern const struct inode_operations f2fs_special_inode_operations;
|
||||||
* inline.c
|
* inline.c
|
||||||
*/
|
*/
|
||||||
bool f2fs_may_inline(struct inode *);
|
bool f2fs_may_inline(struct inode *);
|
||||||
|
void read_inline_data(struct page *, struct page *);
|
||||||
int f2fs_read_inline_data(struct inode *, struct page *);
|
int f2fs_read_inline_data(struct inode *, struct page *);
|
||||||
int f2fs_convert_inline_data(struct inode *, pgoff_t, struct page *);
|
int f2fs_convert_inline_page(struct dnode_of_data *, struct page *);
|
||||||
int f2fs_write_inline_data(struct inode *, struct page *, unsigned int);
|
int f2fs_convert_inline_inode(struct inode *);
|
||||||
void truncate_inline_data(struct inode *, u64);
|
int f2fs_write_inline_data(struct inode *, struct page *);
|
||||||
|
void truncate_inline_data(struct page *, u64);
|
||||||
bool recover_inline_data(struct inode *, struct page *);
|
bool recover_inline_data(struct inode *, struct page *);
|
||||||
struct f2fs_dir_entry *find_in_inline_dir(struct inode *, struct qstr *,
|
struct f2fs_dir_entry *find_in_inline_dir(struct inode *, struct qstr *,
|
||||||
struct page **);
|
struct page **);
|
||||||
|
|
110
fs/f2fs/file.c
110
fs/f2fs/file.c
|
@ -35,35 +35,17 @@ static int f2fs_vm_page_mkwrite(struct vm_area_struct *vma,
|
||||||
struct inode *inode = file_inode(vma->vm_file);
|
struct inode *inode = file_inode(vma->vm_file);
|
||||||
struct f2fs_sb_info *sbi = F2FS_I_SB(inode);
|
struct f2fs_sb_info *sbi = F2FS_I_SB(inode);
|
||||||
struct dnode_of_data dn;
|
struct dnode_of_data dn;
|
||||||
struct page *ipage;
|
|
||||||
int err;
|
int err;
|
||||||
|
|
||||||
f2fs_balance_fs(sbi);
|
f2fs_balance_fs(sbi);
|
||||||
|
|
||||||
sb_start_pagefault(inode->i_sb);
|
sb_start_pagefault(inode->i_sb);
|
||||||
retry:
|
|
||||||
/* force to convert with normal data indices */
|
f2fs_bug_on(sbi, f2fs_has_inline_data(inode));
|
||||||
err = f2fs_convert_inline_data(inode, MAX_INLINE_DATA + 1, page);
|
|
||||||
if (err)
|
|
||||||
goto out;
|
|
||||||
|
|
||||||
/* block allocation */
|
/* block allocation */
|
||||||
f2fs_lock_op(sbi);
|
f2fs_lock_op(sbi);
|
||||||
|
set_new_dnode(&dn, inode, NULL, NULL, 0);
|
||||||
/* check inline_data */
|
|
||||||
ipage = get_node_page(sbi, inode->i_ino);
|
|
||||||
if (IS_ERR(ipage)) {
|
|
||||||
f2fs_unlock_op(sbi);
|
|
||||||
goto out;
|
|
||||||
}
|
|
||||||
|
|
||||||
if (f2fs_has_inline_data(inode)) {
|
|
||||||
f2fs_put_page(ipage, 1);
|
|
||||||
f2fs_unlock_op(sbi);
|
|
||||||
goto retry;
|
|
||||||
}
|
|
||||||
|
|
||||||
set_new_dnode(&dn, inode, ipage, NULL, 0);
|
|
||||||
err = f2fs_reserve_block(&dn, page->index);
|
err = f2fs_reserve_block(&dn, page->index);
|
||||||
if (err) {
|
if (err) {
|
||||||
f2fs_unlock_op(sbi);
|
f2fs_unlock_op(sbi);
|
||||||
|
@ -392,6 +374,15 @@ static loff_t f2fs_llseek(struct file *file, loff_t offset, int whence)
|
||||||
|
|
||||||
static int f2fs_file_mmap(struct file *file, struct vm_area_struct *vma)
|
static int f2fs_file_mmap(struct file *file, struct vm_area_struct *vma)
|
||||||
{
|
{
|
||||||
|
struct inode *inode = file_inode(file);
|
||||||
|
|
||||||
|
/* we don't need to use inline_data strictly */
|
||||||
|
if (f2fs_has_inline_data(inode)) {
|
||||||
|
int err = f2fs_convert_inline_inode(inode);
|
||||||
|
if (err)
|
||||||
|
return err;
|
||||||
|
}
|
||||||
|
|
||||||
file_accessed(file);
|
file_accessed(file);
|
||||||
vma->vm_ops = &f2fs_file_vm_ops;
|
vma->vm_ops = &f2fs_file_vm_ops;
|
||||||
return 0;
|
return 0;
|
||||||
|
@ -433,20 +424,17 @@ void truncate_data_blocks(struct dnode_of_data *dn)
|
||||||
truncate_data_blocks_range(dn, ADDRS_PER_BLOCK);
|
truncate_data_blocks_range(dn, ADDRS_PER_BLOCK);
|
||||||
}
|
}
|
||||||
|
|
||||||
static void truncate_partial_data_page(struct inode *inode, u64 from)
|
static int truncate_partial_data_page(struct inode *inode, u64 from)
|
||||||
{
|
{
|
||||||
unsigned offset = from & (PAGE_CACHE_SIZE - 1);
|
unsigned offset = from & (PAGE_CACHE_SIZE - 1);
|
||||||
struct page *page;
|
struct page *page;
|
||||||
|
|
||||||
if (f2fs_has_inline_data(inode))
|
|
||||||
return truncate_inline_data(inode, from);
|
|
||||||
|
|
||||||
if (!offset)
|
if (!offset)
|
||||||
return;
|
return 0;
|
||||||
|
|
||||||
page = find_data_page(inode, from >> PAGE_CACHE_SHIFT, false);
|
page = find_data_page(inode, from >> PAGE_CACHE_SHIFT, false);
|
||||||
if (IS_ERR(page))
|
if (IS_ERR(page))
|
||||||
return;
|
return 0;
|
||||||
|
|
||||||
lock_page(page);
|
lock_page(page);
|
||||||
if (unlikely(!PageUptodate(page) ||
|
if (unlikely(!PageUptodate(page) ||
|
||||||
|
@ -456,9 +444,9 @@ static void truncate_partial_data_page(struct inode *inode, u64 from)
|
||||||
f2fs_wait_on_page_writeback(page, DATA);
|
f2fs_wait_on_page_writeback(page, DATA);
|
||||||
zero_user(page, offset, PAGE_CACHE_SIZE - offset);
|
zero_user(page, offset, PAGE_CACHE_SIZE - offset);
|
||||||
set_page_dirty(page);
|
set_page_dirty(page);
|
||||||
|
|
||||||
out:
|
out:
|
||||||
f2fs_put_page(page, 1);
|
f2fs_put_page(page, 1);
|
||||||
|
return 0;
|
||||||
}
|
}
|
||||||
|
|
||||||
int truncate_blocks(struct inode *inode, u64 from, bool lock)
|
int truncate_blocks(struct inode *inode, u64 from, bool lock)
|
||||||
|
@ -468,33 +456,35 @@ int truncate_blocks(struct inode *inode, u64 from, bool lock)
|
||||||
struct dnode_of_data dn;
|
struct dnode_of_data dn;
|
||||||
pgoff_t free_from;
|
pgoff_t free_from;
|
||||||
int count = 0, err = 0;
|
int count = 0, err = 0;
|
||||||
|
struct page *ipage;
|
||||||
|
|
||||||
trace_f2fs_truncate_blocks_enter(inode, from);
|
trace_f2fs_truncate_blocks_enter(inode, from);
|
||||||
|
|
||||||
if (f2fs_has_inline_data(inode) || f2fs_has_inline_dentry(inode))
|
|
||||||
goto done;
|
|
||||||
|
|
||||||
free_from = (pgoff_t)
|
free_from = (pgoff_t)
|
||||||
((from + blocksize - 1) >> (sbi->log_blocksize));
|
((from + blocksize - 1) >> (sbi->log_blocksize));
|
||||||
|
|
||||||
if (lock)
|
if (lock)
|
||||||
f2fs_lock_op(sbi);
|
f2fs_lock_op(sbi);
|
||||||
|
|
||||||
set_new_dnode(&dn, inode, NULL, NULL, 0);
|
ipage = get_node_page(sbi, inode->i_ino);
|
||||||
|
if (IS_ERR(ipage)) {
|
||||||
|
err = PTR_ERR(ipage);
|
||||||
|
goto out;
|
||||||
|
}
|
||||||
|
|
||||||
|
if (f2fs_has_inline_data(inode)) {
|
||||||
|
truncate_inline_data(ipage, from);
|
||||||
|
update_inode(inode, ipage);
|
||||||
|
f2fs_put_page(ipage, 1);
|
||||||
|
goto out;
|
||||||
|
}
|
||||||
|
|
||||||
|
set_new_dnode(&dn, inode, ipage, NULL, 0);
|
||||||
err = get_dnode_of_data(&dn, free_from, LOOKUP_NODE);
|
err = get_dnode_of_data(&dn, free_from, LOOKUP_NODE);
|
||||||
if (err) {
|
if (err) {
|
||||||
if (err == -ENOENT)
|
if (err == -ENOENT)
|
||||||
goto free_next;
|
goto free_next;
|
||||||
if (lock)
|
goto out;
|
||||||
f2fs_unlock_op(sbi);
|
|
||||||
trace_f2fs_truncate_blocks_exit(inode, err);
|
|
||||||
return err;
|
|
||||||
}
|
|
||||||
|
|
||||||
/* writepage can convert inline_data under get_donde_of_data */
|
|
||||||
if (f2fs_has_inline_data(inode)) {
|
|
||||||
f2fs_put_dnode(&dn);
|
|
||||||
goto unlock_done;
|
|
||||||
}
|
}
|
||||||
|
|
||||||
count = ADDRS_PER_PAGE(dn.node_page, F2FS_I(inode));
|
count = ADDRS_PER_PAGE(dn.node_page, F2FS_I(inode));
|
||||||
|
@ -510,12 +500,13 @@ int truncate_blocks(struct inode *inode, u64 from, bool lock)
|
||||||
f2fs_put_dnode(&dn);
|
f2fs_put_dnode(&dn);
|
||||||
free_next:
|
free_next:
|
||||||
err = truncate_inode_blocks(inode, free_from);
|
err = truncate_inode_blocks(inode, free_from);
|
||||||
unlock_done:
|
|
||||||
|
/* lastly zero out the first data page */
|
||||||
|
if (!err)
|
||||||
|
err = truncate_partial_data_page(inode, from);
|
||||||
|
out:
|
||||||
if (lock)
|
if (lock)
|
||||||
f2fs_unlock_op(sbi);
|
f2fs_unlock_op(sbi);
|
||||||
done:
|
|
||||||
/* lastly zero out the first data page */
|
|
||||||
truncate_partial_data_page(inode, from);
|
|
||||||
|
|
||||||
trace_f2fs_truncate_blocks_exit(inode, err);
|
trace_f2fs_truncate_blocks_exit(inode, err);
|
||||||
return err;
|
return err;
|
||||||
|
@ -586,10 +577,6 @@ int f2fs_setattr(struct dentry *dentry, struct iattr *attr)
|
||||||
return err;
|
return err;
|
||||||
|
|
||||||
if (attr->ia_valid & ATTR_SIZE) {
|
if (attr->ia_valid & ATTR_SIZE) {
|
||||||
err = f2fs_convert_inline_data(inode, attr->ia_size, NULL);
|
|
||||||
if (err)
|
|
||||||
return err;
|
|
||||||
|
|
||||||
if (attr->ia_size != i_size_read(inode)) {
|
if (attr->ia_size != i_size_read(inode)) {
|
||||||
truncate_setsize(inode, attr->ia_size);
|
truncate_setsize(inode, attr->ia_size);
|
||||||
f2fs_truncate(inode);
|
f2fs_truncate(inode);
|
||||||
|
@ -690,9 +677,11 @@ static int punch_hole(struct inode *inode, loff_t offset, loff_t len)
|
||||||
if (offset >= inode->i_size)
|
if (offset >= inode->i_size)
|
||||||
return ret;
|
return ret;
|
||||||
|
|
||||||
ret = f2fs_convert_inline_data(inode, MAX_INLINE_DATA + 1, NULL);
|
if (f2fs_has_inline_data(inode)) {
|
||||||
if (ret)
|
ret = f2fs_convert_inline_inode(inode);
|
||||||
return ret;
|
if (ret)
|
||||||
|
return ret;
|
||||||
|
}
|
||||||
|
|
||||||
pg_start = ((unsigned long long) offset) >> PAGE_CACHE_SHIFT;
|
pg_start = ((unsigned long long) offset) >> PAGE_CACHE_SHIFT;
|
||||||
pg_end = ((unsigned long long) offset + len) >> PAGE_CACHE_SHIFT;
|
pg_end = ((unsigned long long) offset + len) >> PAGE_CACHE_SHIFT;
|
||||||
|
@ -746,9 +735,11 @@ static int expand_inode_data(struct inode *inode, loff_t offset,
|
||||||
if (ret)
|
if (ret)
|
||||||
return ret;
|
return ret;
|
||||||
|
|
||||||
ret = f2fs_convert_inline_data(inode, offset + len, NULL);
|
if (f2fs_has_inline_data(inode)) {
|
||||||
if (ret)
|
ret = f2fs_convert_inline_inode(inode);
|
||||||
return ret;
|
if (ret)
|
||||||
|
return ret;
|
||||||
|
}
|
||||||
|
|
||||||
pg_start = ((unsigned long long) offset) >> PAGE_CACHE_SHIFT;
|
pg_start = ((unsigned long long) offset) >> PAGE_CACHE_SHIFT;
|
||||||
pg_end = ((unsigned long long) offset + len) >> PAGE_CACHE_SHIFT;
|
pg_end = ((unsigned long long) offset + len) >> PAGE_CACHE_SHIFT;
|
||||||
|
@ -899,7 +890,7 @@ static int f2fs_ioc_start_atomic_write(struct file *filp)
|
||||||
|
|
||||||
set_inode_flag(F2FS_I(inode), FI_ATOMIC_FILE);
|
set_inode_flag(F2FS_I(inode), FI_ATOMIC_FILE);
|
||||||
|
|
||||||
return f2fs_convert_inline_data(inode, MAX_INLINE_DATA + 1, NULL);
|
return f2fs_convert_inline_inode(inode);
|
||||||
}
|
}
|
||||||
|
|
||||||
static int f2fs_ioc_commit_atomic_write(struct file *filp)
|
static int f2fs_ioc_commit_atomic_write(struct file *filp)
|
||||||
|
@ -933,7 +924,8 @@ static int f2fs_ioc_start_volatile_write(struct file *filp)
|
||||||
return -EACCES;
|
return -EACCES;
|
||||||
|
|
||||||
set_inode_flag(F2FS_I(inode), FI_VOLATILE_FILE);
|
set_inode_flag(F2FS_I(inode), FI_VOLATILE_FILE);
|
||||||
return 0;
|
|
||||||
|
return f2fs_convert_inline_inode(inode);
|
||||||
}
|
}
|
||||||
|
|
||||||
static int f2fs_ioc_fitrim(struct file *filp, unsigned long arg)
|
static int f2fs_ioc_fitrim(struct file *filp, unsigned long arg)
|
||||||
|
|
203
fs/f2fs/inline.c
203
fs/f2fs/inline.c
|
@ -15,41 +15,26 @@
|
||||||
|
|
||||||
bool f2fs_may_inline(struct inode *inode)
|
bool f2fs_may_inline(struct inode *inode)
|
||||||
{
|
{
|
||||||
block_t nr_blocks;
|
|
||||||
loff_t i_size;
|
|
||||||
|
|
||||||
if (!test_opt(F2FS_I_SB(inode), INLINE_DATA))
|
if (!test_opt(F2FS_I_SB(inode), INLINE_DATA))
|
||||||
return false;
|
return false;
|
||||||
|
|
||||||
if (f2fs_is_atomic_file(inode))
|
if (f2fs_is_atomic_file(inode))
|
||||||
return false;
|
return false;
|
||||||
|
|
||||||
nr_blocks = F2FS_I(inode)->i_xattr_nid ? 3 : 2;
|
if (!S_ISREG(inode->i_mode))
|
||||||
if (inode->i_blocks > nr_blocks)
|
|
||||||
return false;
|
|
||||||
|
|
||||||
i_size = i_size_read(inode);
|
|
||||||
if (i_size > MAX_INLINE_DATA)
|
|
||||||
return false;
|
return false;
|
||||||
|
|
||||||
return true;
|
return true;
|
||||||
}
|
}
|
||||||
|
|
||||||
int f2fs_read_inline_data(struct inode *inode, struct page *page)
|
void read_inline_data(struct page *page, struct page *ipage)
|
||||||
{
|
{
|
||||||
struct page *ipage;
|
|
||||||
void *src_addr, *dst_addr;
|
void *src_addr, *dst_addr;
|
||||||
|
|
||||||
if (page->index) {
|
if (PageUptodate(page))
|
||||||
zero_user_segment(page, 0, PAGE_CACHE_SIZE);
|
return;
|
||||||
goto out;
|
|
||||||
}
|
|
||||||
|
|
||||||
ipage = get_node_page(F2FS_I_SB(inode), inode->i_ino);
|
f2fs_bug_on(F2FS_P_SB(page), page->index);
|
||||||
if (IS_ERR(ipage)) {
|
|
||||||
unlock_page(page);
|
|
||||||
return PTR_ERR(ipage);
|
|
||||||
}
|
|
||||||
|
|
||||||
zero_user_segment(page, MAX_INLINE_DATA, PAGE_CACHE_SIZE);
|
zero_user_segment(page, MAX_INLINE_DATA, PAGE_CACHE_SIZE);
|
||||||
|
|
||||||
|
@ -59,104 +44,120 @@ int f2fs_read_inline_data(struct inode *inode, struct page *page)
|
||||||
memcpy(dst_addr, src_addr, MAX_INLINE_DATA);
|
memcpy(dst_addr, src_addr, MAX_INLINE_DATA);
|
||||||
flush_dcache_page(page);
|
flush_dcache_page(page);
|
||||||
kunmap_atomic(dst_addr);
|
kunmap_atomic(dst_addr);
|
||||||
f2fs_put_page(ipage, 1);
|
|
||||||
out:
|
|
||||||
SetPageUptodate(page);
|
SetPageUptodate(page);
|
||||||
unlock_page(page);
|
}
|
||||||
|
|
||||||
|
int f2fs_read_inline_data(struct inode *inode, struct page *page)
|
||||||
|
{
|
||||||
|
struct page *ipage;
|
||||||
|
|
||||||
|
ipage = get_node_page(F2FS_I_SB(inode), inode->i_ino);
|
||||||
|
if (IS_ERR(ipage)) {
|
||||||
|
unlock_page(page);
|
||||||
|
return PTR_ERR(ipage);
|
||||||
|
}
|
||||||
|
|
||||||
|
if (!f2fs_has_inline_data(inode)) {
|
||||||
|
f2fs_put_page(ipage, 1);
|
||||||
|
return -EAGAIN;
|
||||||
|
}
|
||||||
|
|
||||||
|
if (page->index)
|
||||||
|
zero_user_segment(page, 0, PAGE_CACHE_SIZE);
|
||||||
|
else
|
||||||
|
read_inline_data(page, ipage);
|
||||||
|
|
||||||
|
SetPageUptodate(page);
|
||||||
|
f2fs_put_page(ipage, 1);
|
||||||
|
unlock_page(page);
|
||||||
return 0;
|
return 0;
|
||||||
}
|
}
|
||||||
|
|
||||||
static int __f2fs_convert_inline_data(struct inode *inode, struct page *page)
|
int f2fs_convert_inline_page(struct dnode_of_data *dn, struct page *page)
|
||||||
{
|
{
|
||||||
int err = 0;
|
|
||||||
struct page *ipage;
|
|
||||||
struct dnode_of_data dn;
|
|
||||||
void *src_addr, *dst_addr;
|
void *src_addr, *dst_addr;
|
||||||
block_t new_blk_addr;
|
block_t new_blk_addr;
|
||||||
struct f2fs_sb_info *sbi = F2FS_I_SB(inode);
|
|
||||||
struct f2fs_io_info fio = {
|
struct f2fs_io_info fio = {
|
||||||
.type = DATA,
|
.type = DATA,
|
||||||
.rw = WRITE_SYNC | REQ_PRIO,
|
.rw = WRITE_SYNC | REQ_PRIO,
|
||||||
};
|
};
|
||||||
|
int err;
|
||||||
|
|
||||||
f2fs_lock_op(sbi);
|
f2fs_bug_on(F2FS_I_SB(dn->inode), page->index);
|
||||||
ipage = get_node_page(sbi, inode->i_ino);
|
|
||||||
if (IS_ERR(ipage)) {
|
|
||||||
err = PTR_ERR(ipage);
|
|
||||||
goto out;
|
|
||||||
}
|
|
||||||
|
|
||||||
/* someone else converted inline_data already */
|
if (!f2fs_exist_data(dn->inode))
|
||||||
if (!f2fs_has_inline_data(inode))
|
goto clear_out;
|
||||||
goto out;
|
|
||||||
|
|
||||||
/*
|
err = f2fs_reserve_block(dn, 0);
|
||||||
* i_addr[0] is not used for inline data,
|
|
||||||
* so reserving new block will not destroy inline data
|
|
||||||
*/
|
|
||||||
set_new_dnode(&dn, inode, ipage, NULL, 0);
|
|
||||||
err = f2fs_reserve_block(&dn, 0);
|
|
||||||
if (err)
|
if (err)
|
||||||
goto out;
|
return err;
|
||||||
|
|
||||||
f2fs_wait_on_page_writeback(page, DATA);
|
f2fs_wait_on_page_writeback(page, DATA);
|
||||||
|
|
||||||
|
if (PageUptodate(page))
|
||||||
|
goto no_update;
|
||||||
|
|
||||||
zero_user_segment(page, MAX_INLINE_DATA, PAGE_CACHE_SIZE);
|
zero_user_segment(page, MAX_INLINE_DATA, PAGE_CACHE_SIZE);
|
||||||
|
|
||||||
/* Copy the whole inline data block */
|
/* Copy the whole inline data block */
|
||||||
src_addr = inline_data_addr(ipage);
|
src_addr = inline_data_addr(dn->inode_page);
|
||||||
dst_addr = kmap_atomic(page);
|
dst_addr = kmap_atomic(page);
|
||||||
memcpy(dst_addr, src_addr, MAX_INLINE_DATA);
|
memcpy(dst_addr, src_addr, MAX_INLINE_DATA);
|
||||||
kunmap_atomic(dst_addr);
|
kunmap_atomic(dst_addr);
|
||||||
SetPageUptodate(page);
|
SetPageUptodate(page);
|
||||||
|
no_update:
|
||||||
/* write data page to try to make data consistent */
|
/* write data page to try to make data consistent */
|
||||||
set_page_writeback(page);
|
set_page_writeback(page);
|
||||||
write_data_page(page, &dn, &new_blk_addr, &fio);
|
|
||||||
update_extent_cache(new_blk_addr, &dn);
|
write_data_page(page, dn, &new_blk_addr, &fio);
|
||||||
|
update_extent_cache(new_blk_addr, dn);
|
||||||
f2fs_wait_on_page_writeback(page, DATA);
|
f2fs_wait_on_page_writeback(page, DATA);
|
||||||
|
|
||||||
/* clear inline data and flag after data writeback */
|
/* clear inline data and flag after data writeback */
|
||||||
zero_user_segment(ipage, INLINE_DATA_OFFSET,
|
truncate_inline_data(dn->inode_page, 0);
|
||||||
INLINE_DATA_OFFSET + MAX_INLINE_DATA);
|
clear_out:
|
||||||
clear_inode_flag(F2FS_I(inode), FI_INLINE_DATA);
|
f2fs_clear_inline_inode(dn->inode);
|
||||||
stat_dec_inline_inode(inode);
|
stat_dec_inline_inode(dn->inode);
|
||||||
|
sync_inode_page(dn);
|
||||||
sync_inode_page(&dn);
|
f2fs_put_dnode(dn);
|
||||||
f2fs_put_dnode(&dn);
|
return 0;
|
||||||
out:
|
|
||||||
f2fs_unlock_op(sbi);
|
|
||||||
return err;
|
|
||||||
}
|
}
|
||||||
|
|
||||||
int f2fs_convert_inline_data(struct inode *inode, pgoff_t to_size,
|
int f2fs_convert_inline_inode(struct inode *inode)
|
||||||
struct page *page)
|
|
||||||
{
|
{
|
||||||
struct page *new_page = page;
|
struct f2fs_sb_info *sbi = F2FS_I_SB(inode);
|
||||||
int err;
|
struct dnode_of_data dn;
|
||||||
|
struct page *ipage, *page;
|
||||||
|
int err = 0;
|
||||||
|
|
||||||
if (!f2fs_has_inline_data(inode))
|
page = grab_cache_page(inode->i_mapping, 0);
|
||||||
return 0;
|
if (!page)
|
||||||
else if (to_size <= MAX_INLINE_DATA)
|
return -ENOMEM;
|
||||||
return 0;
|
|
||||||
|
|
||||||
if (!page || page->index != 0) {
|
f2fs_lock_op(sbi);
|
||||||
new_page = grab_cache_page(inode->i_mapping, 0);
|
|
||||||
if (!new_page)
|
ipage = get_node_page(sbi, inode->i_ino);
|
||||||
return -ENOMEM;
|
if (IS_ERR(ipage)) {
|
||||||
|
f2fs_unlock_op(sbi);
|
||||||
|
return PTR_ERR(ipage);
|
||||||
}
|
}
|
||||||
|
|
||||||
err = __f2fs_convert_inline_data(inode, new_page);
|
set_new_dnode(&dn, inode, ipage, ipage, 0);
|
||||||
if (!page || page->index != 0)
|
|
||||||
f2fs_put_page(new_page, 1);
|
if (f2fs_has_inline_data(inode))
|
||||||
|
err = f2fs_convert_inline_page(&dn, page);
|
||||||
|
|
||||||
|
f2fs_put_dnode(&dn);
|
||||||
|
|
||||||
|
f2fs_unlock_op(sbi);
|
||||||
|
|
||||||
|
f2fs_put_page(page, 1);
|
||||||
return err;
|
return err;
|
||||||
}
|
}
|
||||||
|
|
||||||
int f2fs_write_inline_data(struct inode *inode,
|
int f2fs_write_inline_data(struct inode *inode, struct page *page)
|
||||||
struct page *page, unsigned size)
|
|
||||||
{
|
{
|
||||||
void *src_addr, *dst_addr;
|
void *src_addr, *dst_addr;
|
||||||
struct page *ipage;
|
|
||||||
struct dnode_of_data dn;
|
struct dnode_of_data dn;
|
||||||
int err;
|
int err;
|
||||||
|
|
||||||
|
@ -164,48 +165,39 @@ int f2fs_write_inline_data(struct inode *inode,
|
||||||
err = get_dnode_of_data(&dn, 0, LOOKUP_NODE);
|
err = get_dnode_of_data(&dn, 0, LOOKUP_NODE);
|
||||||
if (err)
|
if (err)
|
||||||
return err;
|
return err;
|
||||||
ipage = dn.inode_page;
|
|
||||||
|
|
||||||
/* Release any data block if it is allocated */
|
|
||||||
if (!f2fs_has_inline_data(inode)) {
|
if (!f2fs_has_inline_data(inode)) {
|
||||||
int count = ADDRS_PER_PAGE(dn.node_page, F2FS_I(inode));
|
f2fs_put_dnode(&dn);
|
||||||
truncate_data_blocks_range(&dn, count);
|
return -EAGAIN;
|
||||||
set_inode_flag(F2FS_I(inode), FI_INLINE_DATA);
|
|
||||||
stat_inc_inline_inode(inode);
|
|
||||||
}
|
}
|
||||||
|
|
||||||
f2fs_wait_on_page_writeback(ipage, NODE);
|
f2fs_bug_on(F2FS_I_SB(inode), page->index);
|
||||||
zero_user_segment(ipage, INLINE_DATA_OFFSET,
|
|
||||||
INLINE_DATA_OFFSET + MAX_INLINE_DATA);
|
f2fs_wait_on_page_writeback(dn.inode_page, NODE);
|
||||||
src_addr = kmap_atomic(page);
|
src_addr = kmap_atomic(page);
|
||||||
dst_addr = inline_data_addr(ipage);
|
dst_addr = inline_data_addr(dn.inode_page);
|
||||||
memcpy(dst_addr, src_addr, size);
|
memcpy(dst_addr, src_addr, MAX_INLINE_DATA);
|
||||||
kunmap_atomic(src_addr);
|
kunmap_atomic(src_addr);
|
||||||
|
|
||||||
set_inode_flag(F2FS_I(inode), FI_APPEND_WRITE);
|
set_inode_flag(F2FS_I(inode), FI_APPEND_WRITE);
|
||||||
|
set_inode_flag(F2FS_I(inode), FI_DATA_EXIST);
|
||||||
|
|
||||||
sync_inode_page(&dn);
|
sync_inode_page(&dn);
|
||||||
f2fs_put_dnode(&dn);
|
f2fs_put_dnode(&dn);
|
||||||
|
|
||||||
return 0;
|
return 0;
|
||||||
}
|
}
|
||||||
|
|
||||||
void truncate_inline_data(struct inode *inode, u64 from)
|
void truncate_inline_data(struct page *ipage, u64 from)
|
||||||
{
|
{
|
||||||
struct page *ipage;
|
void *addr;
|
||||||
|
|
||||||
if (from >= MAX_INLINE_DATA)
|
if (from >= MAX_INLINE_DATA)
|
||||||
return;
|
return;
|
||||||
|
|
||||||
ipage = get_node_page(F2FS_I_SB(inode), inode->i_ino);
|
|
||||||
if (IS_ERR(ipage))
|
|
||||||
return;
|
|
||||||
|
|
||||||
f2fs_wait_on_page_writeback(ipage, NODE);
|
f2fs_wait_on_page_writeback(ipage, NODE);
|
||||||
|
|
||||||
zero_user_segment(ipage, INLINE_DATA_OFFSET + from,
|
addr = inline_data_addr(ipage);
|
||||||
INLINE_DATA_OFFSET + MAX_INLINE_DATA);
|
memset(addr + from, 0, MAX_INLINE_DATA - from);
|
||||||
set_page_dirty(ipage);
|
|
||||||
f2fs_put_page(ipage, 1);
|
|
||||||
}
|
}
|
||||||
|
|
||||||
bool recover_inline_data(struct inode *inode, struct page *npage)
|
bool recover_inline_data(struct inode *inode, struct page *npage)
|
||||||
|
@ -237,6 +229,10 @@ process_inline:
|
||||||
src_addr = inline_data_addr(npage);
|
src_addr = inline_data_addr(npage);
|
||||||
dst_addr = inline_data_addr(ipage);
|
dst_addr = inline_data_addr(ipage);
|
||||||
memcpy(dst_addr, src_addr, MAX_INLINE_DATA);
|
memcpy(dst_addr, src_addr, MAX_INLINE_DATA);
|
||||||
|
|
||||||
|
set_inode_flag(F2FS_I(inode), FI_INLINE_DATA);
|
||||||
|
set_inode_flag(F2FS_I(inode), FI_DATA_EXIST);
|
||||||
|
|
||||||
update_inode(inode, ipage);
|
update_inode(inode, ipage);
|
||||||
f2fs_put_page(ipage, 1);
|
f2fs_put_page(ipage, 1);
|
||||||
return true;
|
return true;
|
||||||
|
@ -245,15 +241,12 @@ process_inline:
|
||||||
if (f2fs_has_inline_data(inode)) {
|
if (f2fs_has_inline_data(inode)) {
|
||||||
ipage = get_node_page(sbi, inode->i_ino);
|
ipage = get_node_page(sbi, inode->i_ino);
|
||||||
f2fs_bug_on(sbi, IS_ERR(ipage));
|
f2fs_bug_on(sbi, IS_ERR(ipage));
|
||||||
f2fs_wait_on_page_writeback(ipage, NODE);
|
truncate_inline_data(ipage, 0);
|
||||||
zero_user_segment(ipage, INLINE_DATA_OFFSET,
|
f2fs_clear_inline_inode(inode);
|
||||||
INLINE_DATA_OFFSET + MAX_INLINE_DATA);
|
|
||||||
clear_inode_flag(F2FS_I(inode), FI_INLINE_DATA);
|
|
||||||
update_inode(inode, ipage);
|
update_inode(inode, ipage);
|
||||||
f2fs_put_page(ipage, 1);
|
f2fs_put_page(ipage, 1);
|
||||||
} else if (ri && (ri->i_inline & F2FS_INLINE_DATA)) {
|
} else if (ri && (ri->i_inline & F2FS_INLINE_DATA)) {
|
||||||
truncate_blocks(inode, 0, false);
|
truncate_blocks(inode, 0, false);
|
||||||
set_inode_flag(F2FS_I(inode), FI_INLINE_DATA);
|
|
||||||
goto process_inline;
|
goto process_inline;
|
||||||
}
|
}
|
||||||
return false;
|
return false;
|
||||||
|
@ -366,8 +359,8 @@ static int f2fs_convert_inline_dir(struct inode *dir, struct page *ipage,
|
||||||
set_page_dirty(page);
|
set_page_dirty(page);
|
||||||
|
|
||||||
/* clear inline dir and flag after data writeback */
|
/* clear inline dir and flag after data writeback */
|
||||||
zero_user_segment(ipage, INLINE_DATA_OFFSET,
|
truncate_inline_data(ipage, 0);
|
||||||
INLINE_DATA_OFFSET + MAX_INLINE_DATA);
|
|
||||||
stat_dec_inline_dir(dir);
|
stat_dec_inline_dir(dir);
|
||||||
clear_inode_flag(F2FS_I(dir), FI_INLINE_DENTRY);
|
clear_inode_flag(F2FS_I(dir), FI_INLINE_DENTRY);
|
||||||
|
|
||||||
|
|
|
@ -67,12 +67,38 @@ static void __set_inode_rdev(struct inode *inode, struct f2fs_inode *ri)
|
||||||
}
|
}
|
||||||
}
|
}
|
||||||
|
|
||||||
|
static int __recover_inline_status(struct inode *inode, struct page *ipage)
|
||||||
|
{
|
||||||
|
void *inline_data = inline_data_addr(ipage);
|
||||||
|
struct f2fs_inode *ri;
|
||||||
|
void *zbuf;
|
||||||
|
|
||||||
|
zbuf = kzalloc(MAX_INLINE_DATA, GFP_NOFS);
|
||||||
|
if (!zbuf)
|
||||||
|
return -ENOMEM;
|
||||||
|
|
||||||
|
if (!memcmp(zbuf, inline_data, MAX_INLINE_DATA)) {
|
||||||
|
kfree(zbuf);
|
||||||
|
return 0;
|
||||||
|
}
|
||||||
|
kfree(zbuf);
|
||||||
|
|
||||||
|
f2fs_wait_on_page_writeback(ipage, NODE);
|
||||||
|
set_inode_flag(F2FS_I(inode), FI_DATA_EXIST);
|
||||||
|
|
||||||
|
ri = F2FS_INODE(ipage);
|
||||||
|
set_raw_inline(F2FS_I(inode), ri);
|
||||||
|
set_page_dirty(ipage);
|
||||||
|
return 0;
|
||||||
|
}
|
||||||
|
|
||||||
static int do_read_inode(struct inode *inode)
|
static int do_read_inode(struct inode *inode)
|
||||||
{
|
{
|
||||||
struct f2fs_sb_info *sbi = F2FS_I_SB(inode);
|
struct f2fs_sb_info *sbi = F2FS_I_SB(inode);
|
||||||
struct f2fs_inode_info *fi = F2FS_I(inode);
|
struct f2fs_inode_info *fi = F2FS_I(inode);
|
||||||
struct page *node_page;
|
struct page *node_page;
|
||||||
struct f2fs_inode *ri;
|
struct f2fs_inode *ri;
|
||||||
|
int err = 0;
|
||||||
|
|
||||||
/* Check if ino is within scope */
|
/* Check if ino is within scope */
|
||||||
if (check_nid_range(sbi, inode->i_ino)) {
|
if (check_nid_range(sbi, inode->i_ino)) {
|
||||||
|
@ -114,11 +140,15 @@ static int do_read_inode(struct inode *inode)
|
||||||
get_extent_info(&fi->ext, ri->i_ext);
|
get_extent_info(&fi->ext, ri->i_ext);
|
||||||
get_inline_info(fi, ri);
|
get_inline_info(fi, ri);
|
||||||
|
|
||||||
|
/* check data exist */
|
||||||
|
if (f2fs_has_inline_data(inode) && !f2fs_exist_data(inode))
|
||||||
|
err = __recover_inline_status(inode, node_page);
|
||||||
|
|
||||||
/* get rdev by using inline_info */
|
/* get rdev by using inline_info */
|
||||||
__get_inode_rdev(inode, ri);
|
__get_inode_rdev(inode, ri);
|
||||||
|
|
||||||
f2fs_put_page(node_page, 1);
|
f2fs_put_page(node_page, 1);
|
||||||
return 0;
|
return err;
|
||||||
}
|
}
|
||||||
|
|
||||||
struct inode *f2fs_iget(struct super_block *sb, unsigned long ino)
|
struct inode *f2fs_iget(struct super_block *sb, unsigned long ino)
|
||||||
|
@ -329,6 +359,7 @@ void handle_failed_inode(struct inode *inode)
|
||||||
|
|
||||||
remove_inode_page(inode);
|
remove_inode_page(inode);
|
||||||
|
|
||||||
|
clear_inode_flag(F2FS_I(inode), FI_INLINE_DATA);
|
||||||
clear_inode_flag(F2FS_I(inode), FI_INLINE_DENTRY);
|
clear_inode_flag(F2FS_I(inode), FI_INLINE_DENTRY);
|
||||||
alloc_nid_failed(sbi, inode->i_ino);
|
alloc_nid_failed(sbi, inode->i_ino);
|
||||||
f2fs_unlock_op(sbi);
|
f2fs_unlock_op(sbi);
|
||||||
|
|
|
@ -55,6 +55,8 @@ static struct inode *f2fs_new_inode(struct inode *dir, umode_t mode)
|
||||||
goto out;
|
goto out;
|
||||||
}
|
}
|
||||||
|
|
||||||
|
if (f2fs_may_inline(inode))
|
||||||
|
set_inode_flag(F2FS_I(inode), FI_INLINE_DATA);
|
||||||
if (test_opt(sbi, INLINE_DENTRY) && S_ISDIR(inode->i_mode))
|
if (test_opt(sbi, INLINE_DENTRY) && S_ISDIR(inode->i_mode))
|
||||||
set_inode_flag(F2FS_I(inode), FI_INLINE_DENTRY);
|
set_inode_flag(F2FS_I(inode), FI_INLINE_DENTRY);
|
||||||
|
|
||||||
|
@ -133,6 +135,7 @@ static int f2fs_create(struct inode *dir, struct dentry *dentry, umode_t mode,
|
||||||
|
|
||||||
alloc_nid_done(sbi, ino);
|
alloc_nid_done(sbi, ino);
|
||||||
|
|
||||||
|
stat_inc_inline_inode(inode);
|
||||||
d_instantiate(dentry, inode);
|
d_instantiate(dentry, inode);
|
||||||
unlock_new_inode(inode);
|
unlock_new_inode(inode);
|
||||||
return 0;
|
return 0;
|
||||||
|
|
|
@ -172,6 +172,7 @@ struct f2fs_extent {
|
||||||
#define F2FS_INLINE_XATTR 0x01 /* file inline xattr flag */
|
#define F2FS_INLINE_XATTR 0x01 /* file inline xattr flag */
|
||||||
#define F2FS_INLINE_DATA 0x02 /* file inline data flag */
|
#define F2FS_INLINE_DATA 0x02 /* file inline data flag */
|
||||||
#define F2FS_INLINE_DENTRY 0x04 /* file inline dentry flag */
|
#define F2FS_INLINE_DENTRY 0x04 /* file inline dentry flag */
|
||||||
|
#define F2FS_DATA_EXIST 0x08 /* file inline data exist flag */
|
||||||
|
|
||||||
#define MAX_INLINE_DATA (sizeof(__le32) * (DEF_ADDRS_PER_INODE - \
|
#define MAX_INLINE_DATA (sizeof(__le32) * (DEF_ADDRS_PER_INODE - \
|
||||||
F2FS_INLINE_XATTR_ADDRS - 1))
|
F2FS_INLINE_XATTR_ADDRS - 1))
|
||||||
|
|
Loading…
Reference in New Issue