btrfs: Cleanup the "_struct" suffix in btrfs_workequeue
authorQu Wenruo <quwenruo@cn.fujitsu.com>
Fri, 28 Feb 2014 02:46:19 +0000 (10:46 +0800)
committerJosef Bacik <jbacik@fb.com>
Mon, 10 Mar 2014 19:17:16 +0000 (15:17 -0400)
Since the "_struct" suffix is mainly used for distinguish the differnt
btrfs_work between the original and the newly created one,
there is no need using the suffix since all btrfs_workers are changed
into btrfs_workqueue.

Also this patch fixed some codes whose code style is changed due to the
too long "_struct" suffix.

Signed-off-by: Qu Wenruo <quwenruo@cn.fujitsu.com>
Tested-by: David Sterba <dsterba@suse.cz>
Signed-off-by: Josef Bacik <jbacik@fb.com>
15 files changed:
fs/btrfs/async-thread.c
fs/btrfs/async-thread.h
fs/btrfs/ctree.h
fs/btrfs/delayed-inode.c
fs/btrfs/disk-io.c
fs/btrfs/extent-tree.c
fs/btrfs/inode.c
fs/btrfs/ordered-data.c
fs/btrfs/ordered-data.h
fs/btrfs/qgroup.c
fs/btrfs/raid56.c
fs/btrfs/reada.c
fs/btrfs/scrub.c
fs/btrfs/volumes.c
fs/btrfs/volumes.h

index 2a5f383c3636ba3d40ef51726773d6638d9f8916..a709585e2c97310070abe44e5372506a576be0bb 100644 (file)
@@ -32,7 +32,7 @@
 #define NO_THRESHOLD (-1)
 #define DFT_THRESHOLD (32)
 
-struct __btrfs_workqueue_struct {
+struct __btrfs_workqueue {
        struct workqueue_struct *normal_wq;
        /* List head pointing to ordered work list */
        struct list_head ordered_list;
@@ -49,15 +49,15 @@ struct __btrfs_workqueue_struct {
        spinlock_t thres_lock;
 };
 
-struct btrfs_workqueue_struct {
-       struct __btrfs_workqueue_struct *normal;
-       struct __btrfs_workqueue_struct *high;
+struct btrfs_workqueue {
+       struct __btrfs_workqueue *normal;
+       struct __btrfs_workqueue *high;
 };
 
-static inline struct __btrfs_workqueue_struct
+static inline struct __btrfs_workqueue
 *__btrfs_alloc_workqueue(char *name, int flags, int max_active, int thresh)
 {
-       struct __btrfs_workqueue_struct *ret = kzalloc(sizeof(*ret), GFP_NOFS);
+       struct __btrfs_workqueue *ret = kzalloc(sizeof(*ret), GFP_NOFS);
 
        if (unlikely(!ret))
                return NULL;
@@ -95,14 +95,14 @@ static inline struct __btrfs_workqueue_struct
 }
 
 static inline void
-__btrfs_destroy_workqueue(struct __btrfs_workqueue_struct *wq);
+__btrfs_destroy_workqueue(struct __btrfs_workqueue *wq);
 
-struct btrfs_workqueue_struct *btrfs_alloc_workqueue(char *name,
-                                                    int flags,
-                                                    int max_active,
-                                                    int thresh)
+struct btrfs_workqueue *btrfs_alloc_workqueue(char *name,
+                                             int flags,
+                                             int max_active,
+                                             int thresh)
 {
-       struct btrfs_workqueue_struct *ret = kzalloc(sizeof(*ret), GFP_NOFS);
+       struct btrfs_workqueue *ret = kzalloc(sizeof(*ret), GFP_NOFS);
 
        if (unlikely(!ret))
                return NULL;
@@ -131,7 +131,7 @@ struct btrfs_workqueue_struct *btrfs_alloc_workqueue(char *name,
  * This hook WILL be called in IRQ handler context,
  * so workqueue_set_max_active MUST NOT be called in this hook
  */
-static inline void thresh_queue_hook(struct __btrfs_workqueue_struct *wq)
+static inline void thresh_queue_hook(struct __btrfs_workqueue *wq)
 {
        if (wq->thresh == NO_THRESHOLD)
                return;
@@ -143,7 +143,7 @@ static inline void thresh_queue_hook(struct __btrfs_workqueue_struct *wq)
  * This hook is called in kthread content.
  * So workqueue_set_max_active is called here.
  */
-static inline void thresh_exec_hook(struct __btrfs_workqueue_struct *wq)
+static inline void thresh_exec_hook(struct __btrfs_workqueue *wq)
 {
        int new_max_active;
        long pending;
@@ -186,10 +186,10 @@ out:
        }
 }
 
-static void run_ordered_work(struct __btrfs_workqueue_struct *wq)
+static void run_ordered_work(struct __btrfs_workqueue *wq)
 {
        struct list_head *list = &wq->ordered_list;
-       struct btrfs_work_struct *work;
+       struct btrfs_work *work;
        spinlock_t *lock = &wq->list_lock;
        unsigned long flags;
 
@@ -197,7 +197,7 @@ static void run_ordered_work(struct __btrfs_workqueue_struct *wq)
                spin_lock_irqsave(lock, flags);
                if (list_empty(list))
                        break;
-               work = list_entry(list->next, struct btrfs_work_struct,
+               work = list_entry(list->next, struct btrfs_work,
                                  ordered_list);
                if (!test_bit(WORK_DONE_BIT, &work->flags))
                        break;
@@ -229,11 +229,11 @@ static void run_ordered_work(struct __btrfs_workqueue_struct *wq)
 
 static void normal_work_helper(struct work_struct *arg)
 {
-       struct btrfs_work_struct *work;
-       struct __btrfs_workqueue_struct *wq;
+       struct btrfs_work *work;
+       struct __btrfs_workqueue *wq;
        int need_order = 0;
 
-       work = container_of(arg, struct btrfs_work_struct, normal_work);
+       work = container_of(arg, struct btrfs_work, normal_work);
        /*
         * We should not touch things inside work in the following cases:
         * 1) after work->func() if it has no ordered_free
@@ -254,10 +254,10 @@ static void normal_work_helper(struct work_struct *arg)
        }
 }
 
-void btrfs_init_work(struct btrfs_work_struct *work,
-                    void (*func)(struct btrfs_work_struct *),
-                    void (*ordered_func)(struct btrfs_work_struct *),
-                    void (*ordered_free)(struct btrfs_work_struct *))
+void btrfs_init_work(struct btrfs_work *work,
+                    void (*func)(struct btrfs_work *),
+                    void (*ordered_func)(struct btrfs_work *),
+                    void (*ordered_free)(struct btrfs_work *))
 {
        work->func = func;
        work->ordered_func = ordered_func;
@@ -267,8 +267,8 @@ void btrfs_init_work(struct btrfs_work_struct *work,
        work->flags = 0;
 }
 
-static inline void __btrfs_queue_work(struct __btrfs_workqueue_struct *wq,
-                                     struct btrfs_work_struct *work)
+static inline void __btrfs_queue_work(struct __btrfs_workqueue *wq,
+                                     struct btrfs_work *work)
 {
        unsigned long flags;
 
@@ -282,10 +282,10 @@ static inline void __btrfs_queue_work(struct __btrfs_workqueue_struct *wq,
        queue_work(wq->normal_wq, &work->normal_work);
 }
 
-void btrfs_queue_work(struct btrfs_workqueue_struct *wq,
-                     struct btrfs_work_struct *work)
+void btrfs_queue_work(struct btrfs_workqueue *wq,
+                     struct btrfs_work *work)
 {
-       struct __btrfs_workqueue_struct *dest_wq;
+       struct __btrfs_workqueue *dest_wq;
 
        if (test_bit(WORK_HIGH_PRIO_BIT, &work->flags) && wq->high)
                dest_wq = wq->high;
@@ -295,13 +295,13 @@ void btrfs_queue_work(struct btrfs_workqueue_struct *wq,
 }
 
 static inline void
-__btrfs_destroy_workqueue(struct __btrfs_workqueue_struct *wq)
+__btrfs_destroy_workqueue(struct __btrfs_workqueue *wq)
 {
        destroy_workqueue(wq->normal_wq);
        kfree(wq);
 }
 
-void btrfs_destroy_workqueue(struct btrfs_workqueue_struct *wq)
+void btrfs_destroy_workqueue(struct btrfs_workqueue *wq)
 {
        if (!wq)
                return;
@@ -310,14 +310,14 @@ void btrfs_destroy_workqueue(struct btrfs_workqueue_struct *wq)
        __btrfs_destroy_workqueue(wq->normal);
 }
 
-void btrfs_workqueue_set_max(struct btrfs_workqueue_struct *wq, int max)
+void btrfs_workqueue_set_max(struct btrfs_workqueue *wq, int max)
 {
        wq->normal->max_active = max;
        if (wq->high)
                wq->high->max_active = max;
 }
 
-void btrfs_set_work_high_priority(struct btrfs_work_struct *work)
+void btrfs_set_work_high_priority(struct btrfs_work *work)
 {
        set_bit(WORK_HIGH_PRIO_BIT, &work->flags);
 }
index ab05904f791ce426e4c243943fceddade0365a08..08d7174762275b68389ec012690a80428de30eb7 100644 (file)
 #ifndef __BTRFS_ASYNC_THREAD_
 #define __BTRFS_ASYNC_THREAD_
 
-struct btrfs_workqueue_struct;
+struct btrfs_workqueue;
 /* Internal use only */
-struct __btrfs_workqueue_struct;
+struct __btrfs_workqueue;
 
-struct btrfs_work_struct {
-       void (*func)(struct btrfs_work_struct *arg);
-       void (*ordered_func)(struct btrfs_work_struct *arg);
-       void (*ordered_free)(struct btrfs_work_struct *arg);
+struct btrfs_work {
+       void (*func)(struct btrfs_work *arg);
+       void (*ordered_func)(struct btrfs_work *arg);
+       void (*ordered_free)(struct btrfs_work *arg);
 
        /* Don't touch things below */
        struct work_struct normal_work;
        struct list_head ordered_list;
-       struct __btrfs_workqueue_struct *wq;
+       struct __btrfs_workqueue *wq;
        unsigned long flags;
 };
 
-struct btrfs_workqueue_struct *btrfs_alloc_workqueue(char *name,
+struct btrfs_workqueue *btrfs_alloc_workqueue(char *name,
                                                     int flags,
                                                     int max_active,
                                                     int thresh);
-void btrfs_init_work(struct btrfs_work_struct *work,
-                    void (*func)(struct btrfs_work_struct *),
-                    void (*ordered_func)(struct btrfs_work_struct *),
-                    void (*ordered_free)(struct btrfs_work_struct *));
-void btrfs_queue_work(struct btrfs_workqueue_struct *wq,
-                     struct btrfs_work_struct *work);
-void btrfs_destroy_workqueue(struct btrfs_workqueue_struct *wq);
-void btrfs_workqueue_set_max(struct btrfs_workqueue_struct *wq, int max);
-void btrfs_set_work_high_priority(struct btrfs_work_struct *work);
+void btrfs_init_work(struct btrfs_work *work,
+                    void (*func)(struct btrfs_work *),
+                    void (*ordered_func)(struct btrfs_work *),
+                    void (*ordered_free)(struct btrfs_work *));
+void btrfs_queue_work(struct btrfs_workqueue *wq,
+                     struct btrfs_work *work);
+void btrfs_destroy_workqueue(struct btrfs_workqueue *wq);
+void btrfs_workqueue_set_max(struct btrfs_workqueue *wq, int max);
+void btrfs_set_work_high_priority(struct btrfs_work *work);
 #endif
index 5a8c77a441ba454715d329c163d85d5984861541..b4d2e957b89fb0cee501b37bbdf8566619d41708 100644 (file)
@@ -1221,7 +1221,7 @@ struct btrfs_caching_control {
        struct list_head list;
        struct mutex mutex;
        wait_queue_head_t wait;
-       struct btrfs_work_struct work;
+       struct btrfs_work work;
        struct btrfs_block_group_cache *block_group;
        u64 progress;
        atomic_t count;
@@ -1504,27 +1504,27 @@ struct btrfs_fs_info {
         * A third pool does submit_bio to avoid deadlocking with the other
         * two
         */
-       struct btrfs_workqueue_struct *workers;
-       struct btrfs_workqueue_struct *delalloc_workers;
-       struct btrfs_workqueue_struct *flush_workers;
-       struct btrfs_workqueue_struct *endio_workers;
-       struct btrfs_workqueue_struct *endio_meta_workers;
-       struct btrfs_workqueue_struct *endio_raid56_workers;
-       struct btrfs_workqueue_struct *rmw_workers;
-       struct btrfs_workqueue_struct *endio_meta_write_workers;
-       struct btrfs_workqueue_struct *endio_write_workers;
-       struct btrfs_workqueue_struct *endio_freespace_worker;
-       struct btrfs_workqueue_struct *submit_workers;
-       struct btrfs_workqueue_struct *caching_workers;
-       struct btrfs_workqueue_struct *readahead_workers;
+       struct btrfs_workqueue *workers;
+       struct btrfs_workqueue *delalloc_workers;
+       struct btrfs_workqueue *flush_workers;
+       struct btrfs_workqueue *endio_workers;
+       struct btrfs_workqueue *endio_meta_workers;
+       struct btrfs_workqueue *endio_raid56_workers;
+       struct btrfs_workqueue *rmw_workers;
+       struct btrfs_workqueue *endio_meta_write_workers;
+       struct btrfs_workqueue *endio_write_workers;
+       struct btrfs_workqueue *endio_freespace_worker;
+       struct btrfs_workqueue *submit_workers;
+       struct btrfs_workqueue *caching_workers;
+       struct btrfs_workqueue *readahead_workers;
 
        /*
         * fixup workers take dirty pages that didn't properly go through
         * the cow mechanism and make them safe to write.  It happens
         * for the sys_munmap function call path
         */
-       struct btrfs_workqueue_struct *fixup_workers;
-       struct btrfs_workqueue_struct *delayed_workers;
+       struct btrfs_workqueue *fixup_workers;
+       struct btrfs_workqueue *delayed_workers;
        struct task_struct *transaction_kthread;
        struct task_struct *cleaner_kthread;
        int thread_pool_size;
@@ -1604,9 +1604,9 @@ struct btrfs_fs_info {
        atomic_t scrub_cancel_req;
        wait_queue_head_t scrub_pause_wait;
        int scrub_workers_refcnt;
-       struct btrfs_workqueue_struct *scrub_workers;
-       struct btrfs_workqueue_struct *scrub_wr_completion_workers;
-       struct btrfs_workqueue_struct *scrub_nocow_workers;
+       struct btrfs_workqueue *scrub_workers;
+       struct btrfs_workqueue *scrub_wr_completion_workers;
+       struct btrfs_workqueue *scrub_nocow_workers;
 
 #ifdef CONFIG_BTRFS_FS_CHECK_INTEGRITY
        u32 check_integrity_print_mask;
@@ -1647,9 +1647,9 @@ struct btrfs_fs_info {
        /* qgroup rescan items */
        struct mutex qgroup_rescan_lock; /* protects the progress item */
        struct btrfs_key qgroup_rescan_progress;
-       struct btrfs_workqueue_struct *qgroup_rescan_workers;
+       struct btrfs_workqueue *qgroup_rescan_workers;
        struct completion qgroup_rescan_completion;
-       struct btrfs_work_struct qgroup_rescan_work;
+       struct btrfs_work qgroup_rescan_work;
 
        /* filesystem state */
        unsigned long fs_state;
@@ -3680,7 +3680,7 @@ struct btrfs_delalloc_work {
        int delay_iput;
        struct completion completion;
        struct list_head list;
-       struct btrfs_work_struct work;
+       struct btrfs_work work;
 };
 
 struct btrfs_delalloc_work *btrfs_alloc_delalloc_work(struct inode *inode,
index 76e85d66801ff436f20bd282a9980289a3f1a15e..33e561a84013f19bb327939e7860753bd5eaa0bf 100644 (file)
@@ -1318,10 +1318,10 @@ void btrfs_remove_delayed_node(struct inode *inode)
 struct btrfs_async_delayed_work {
        struct btrfs_delayed_root *delayed_root;
        int nr;
-       struct btrfs_work_struct work;
+       struct btrfs_work work;
 };
 
-static void btrfs_async_run_delayed_root(struct btrfs_work_struct *work)
+static void btrfs_async_run_delayed_root(struct btrfs_work *work)
 {
        struct btrfs_async_delayed_work *async_work;
        struct btrfs_delayed_root *delayed_root;
index c80d9507171c440050dd23900d12d613a970c160..f7d84d955764838f846b393c09e911640af91980 100644 (file)
@@ -55,7 +55,7 @@
 #endif
 
 static struct extent_io_ops btree_extent_io_ops;
-static void end_workqueue_fn(struct btrfs_work_struct *work);
+static void end_workqueue_fn(struct btrfs_work *work);
 static void free_fs_root(struct btrfs_root *root);
 static int btrfs_check_super_valid(struct btrfs_fs_info *fs_info,
                                    int read_only);
@@ -86,7 +86,7 @@ struct end_io_wq {
        int error;
        int metadata;
        struct list_head list;
-       struct btrfs_work_struct work;
+       struct btrfs_work work;
 };
 
 /*
@@ -108,7 +108,7 @@ struct async_submit_bio {
         * can't tell us where in the file the bio should go
         */
        u64 bio_offset;
-       struct btrfs_work_struct work;
+       struct btrfs_work work;
        int error;
 };
 
@@ -742,7 +742,7 @@ unsigned long btrfs_async_submit_limit(struct btrfs_fs_info *info)
        return 256 * limit;
 }
 
-static void run_one_async_start(struct btrfs_work_struct *work)
+static void run_one_async_start(struct btrfs_work *work)
 {
        struct async_submit_bio *async;
        int ret;
@@ -755,7 +755,7 @@ static void run_one_async_start(struct btrfs_work_struct *work)
                async->error = ret;
 }
 
-static void run_one_async_done(struct btrfs_work_struct *work)
+static void run_one_async_done(struct btrfs_work *work)
 {
        struct btrfs_fs_info *fs_info;
        struct async_submit_bio *async;
@@ -782,7 +782,7 @@ static void run_one_async_done(struct btrfs_work_struct *work)
                               async->bio_offset);
 }
 
-static void run_one_async_free(struct btrfs_work_struct *work)
+static void run_one_async_free(struct btrfs_work *work)
 {
        struct async_submit_bio *async;
 
@@ -1668,7 +1668,7 @@ static int setup_bdi(struct btrfs_fs_info *info, struct backing_dev_info *bdi)
  * called by the kthread helper functions to finally call the bio end_io
  * functions.  This is where read checksum verification actually happens
  */
-static void end_workqueue_fn(struct btrfs_work_struct *work)
+static void end_workqueue_fn(struct btrfs_work *work)
 {
        struct bio *bio;
        struct end_io_wq *end_io_wq;
index bb58082f6d612d7da01e6c59bf7987ea55441c62..19ea8ad70c671661da0b1c5677e48be4f14086a5 100644 (file)
@@ -378,7 +378,7 @@ static u64 add_new_free_space(struct btrfs_block_group_cache *block_group,
        return total_added;
 }
 
-static noinline void caching_thread(struct btrfs_work_struct *work)
+static noinline void caching_thread(struct btrfs_work *work)
 {
        struct btrfs_block_group_cache *block_group;
        struct btrfs_fs_info *fs_info;
index 0885f333574dd0a953892873fb929d1db658c593..53697a80b8498d82adf3db656a3972b02deddf7d 100644 (file)
@@ -324,7 +324,7 @@ struct async_cow {
        u64 start;
        u64 end;
        struct list_head extents;
-       struct btrfs_work_struct work;
+       struct btrfs_work work;
 };
 
 static noinline int add_async_extent(struct async_cow *cow,
@@ -1000,7 +1000,7 @@ out_unlock:
 /*
  * work queue call back to started compression on a file and pages
  */
-static noinline void async_cow_start(struct btrfs_work_struct *work)
+static noinline void async_cow_start(struct btrfs_work *work)
 {
        struct async_cow *async_cow;
        int num_added = 0;
@@ -1018,7 +1018,7 @@ static noinline void async_cow_start(struct btrfs_work_struct *work)
 /*
  * work queue call back to submit previously compressed pages
  */
-static noinline void async_cow_submit(struct btrfs_work_struct *work)
+static noinline void async_cow_submit(struct btrfs_work *work)
 {
        struct async_cow *async_cow;
        struct btrfs_root *root;
@@ -1039,7 +1039,7 @@ static noinline void async_cow_submit(struct btrfs_work_struct *work)
                submit_compressed_extents(async_cow->inode, async_cow);
 }
 
-static noinline void async_cow_free(struct btrfs_work_struct *work)
+static noinline void async_cow_free(struct btrfs_work *work)
 {
        struct async_cow *async_cow;
        async_cow = container_of(work, struct async_cow, work);
@@ -1748,10 +1748,10 @@ int btrfs_set_extent_delalloc(struct inode *inode, u64 start, u64 end,
 /* see btrfs_writepage_start_hook for details on why this is required */
 struct btrfs_writepage_fixup {
        struct page *page;
-       struct btrfs_work_struct work;
+       struct btrfs_work work;
 };
 
-static void btrfs_writepage_fixup_worker(struct btrfs_work_struct *work)
+static void btrfs_writepage_fixup_worker(struct btrfs_work *work)
 {
        struct btrfs_writepage_fixup *fixup;
        struct btrfs_ordered_extent *ordered;
@@ -2750,7 +2750,7 @@ out:
        return ret;
 }
 
-static void finish_ordered_fn(struct btrfs_work_struct *work)
+static void finish_ordered_fn(struct btrfs_work *work)
 {
        struct btrfs_ordered_extent *ordered_extent;
        ordered_extent = container_of(work, struct btrfs_ordered_extent, work);
@@ -2763,7 +2763,7 @@ static int btrfs_writepage_end_io_hook(struct page *page, u64 start, u64 end,
        struct inode *inode = page->mapping->host;
        struct btrfs_root *root = BTRFS_I(inode)->root;
        struct btrfs_ordered_extent *ordered_extent = NULL;
-       struct btrfs_workqueue_struct *workers;
+       struct btrfs_workqueue *workers;
 
        trace_btrfs_writepage_end_io_hook(page, start, end, uptodate);
 
@@ -8384,7 +8384,7 @@ out_notrans:
        return ret;
 }
 
-static void btrfs_run_delalloc_work(struct btrfs_work_struct *work)
+static void btrfs_run_delalloc_work(struct btrfs_work *work)
 {
        struct btrfs_delalloc_work *delalloc_work;
        struct inode *inode;
index 6fa8219b5d03941594a9734ea2c6ce441f1ba24e..751ee38083a9e8030f53350784afc9b5d4f63f8d 100644 (file)
@@ -576,7 +576,7 @@ void btrfs_remove_ordered_extent(struct inode *inode,
        wake_up(&entry->wait);
 }
 
-static void btrfs_run_ordered_extent_work(struct btrfs_work_struct *work)
+static void btrfs_run_ordered_extent_work(struct btrfs_work *work)
 {
        struct btrfs_ordered_extent *ordered;
 
index 84bb236119fe5b3ba18ae54dfbbe1dc73ee7e702..246897058efb009ffd521cee2d61cb60fc0bde0f 100644 (file)
@@ -130,10 +130,10 @@ struct btrfs_ordered_extent {
        /* a per root list of all the pending ordered extents */
        struct list_head root_extent_list;
 
-       struct btrfs_work_struct work;
+       struct btrfs_work work;
 
        struct completion completion;
-       struct btrfs_work_struct flush_work;
+       struct btrfs_work flush_work;
        struct list_head work_list;
 };
 
index 38617cc2fdd5d0179f9e7bbd160e10c7491a7926..2cf905877aaf4cab8b24d27a9bd1fc6a309d0103 100644 (file)
@@ -1984,7 +1984,7 @@ out:
        return ret;
 }
 
-static void btrfs_qgroup_rescan_worker(struct btrfs_work_struct *work)
+static void btrfs_qgroup_rescan_worker(struct btrfs_work *work)
 {
        struct btrfs_fs_info *fs_info = container_of(work, struct btrfs_fs_info,
                                                     qgroup_rescan_work);
index 5afa564201a27697142495a46a68ef0120f28d4c..1269fc30b15c41293bff68e4b7edf12f2bf24e6e 100644 (file)
@@ -87,7 +87,7 @@ struct btrfs_raid_bio {
        /*
         * for scheduling work in the helper threads
         */
-       struct btrfs_work_struct work;
+       struct btrfs_work work;
 
        /*
         * bio list and bio_list_lock are used
@@ -166,8 +166,8 @@ struct btrfs_raid_bio {
 
 static int __raid56_parity_recover(struct btrfs_raid_bio *rbio);
 static noinline void finish_rmw(struct btrfs_raid_bio *rbio);
-static void rmw_work(struct btrfs_work_struct *work);
-static void read_rebuild_work(struct btrfs_work_struct *work);
+static void rmw_work(struct btrfs_work *work);
+static void read_rebuild_work(struct btrfs_work *work);
 static void async_rmw_stripe(struct btrfs_raid_bio *rbio);
 static void async_read_rebuild(struct btrfs_raid_bio *rbio);
 static int fail_bio_stripe(struct btrfs_raid_bio *rbio, struct bio *bio);
@@ -1588,7 +1588,7 @@ struct btrfs_plug_cb {
        struct blk_plug_cb cb;
        struct btrfs_fs_info *info;
        struct list_head rbio_list;
-       struct btrfs_work_struct work;
+       struct btrfs_work work;
 };
 
 /*
@@ -1652,7 +1652,7 @@ static void run_plug(struct btrfs_plug_cb *plug)
  * if the unplug comes from schedule, we have to push the
  * work off to a helper thread
  */
-static void unplug_work(struct btrfs_work_struct *work)
+static void unplug_work(struct btrfs_work *work)
 {
        struct btrfs_plug_cb *plug;
        plug = container_of(work, struct btrfs_plug_cb, work);
@@ -2079,7 +2079,7 @@ int raid56_parity_recover(struct btrfs_root *root, struct bio *bio,
 
 }
 
-static void rmw_work(struct btrfs_work_struct *work)
+static void rmw_work(struct btrfs_work *work)
 {
        struct btrfs_raid_bio *rbio;
 
@@ -2087,7 +2087,7 @@ static void rmw_work(struct btrfs_work_struct *work)
        raid56_rmw_stripe(rbio);
 }
 
-static void read_rebuild_work(struct btrfs_work_struct *work)
+static void read_rebuild_work(struct btrfs_work *work)
 {
        struct btrfs_raid_bio *rbio;
 
index 9e01d3677355bc0722fda5ea43a12cad97674250..30947f923620678f9bc1a27fda49359c6b36e9a4 100644 (file)
@@ -91,8 +91,7 @@ struct reada_zone {
 };
 
 struct reada_machine_work {
-       struct btrfs_work_struct
-                               work;
+       struct btrfs_work       work;
        struct btrfs_fs_info    *fs_info;
 };
 
@@ -734,7 +733,7 @@ static int reada_start_machine_dev(struct btrfs_fs_info *fs_info,
 
 }
 
-static void reada_start_machine_worker(struct btrfs_work_struct *work)
+static void reada_start_machine_worker(struct btrfs_work *work)
 {
        struct reada_machine_work *rmw;
        struct btrfs_fs_info *fs_info;
index 5a240f5e6cebb4929a592dbbd2cea8985b5d749f..db21a1360e1323f02e937a3a994e10bc52aac7da 100644 (file)
@@ -96,8 +96,7 @@ struct scrub_bio {
 #endif
        int                     page_count;
        int                     next_free;
-       struct btrfs_work_struct
-                               work;
+       struct btrfs_work       work;
 };
 
 struct scrub_block {
@@ -155,8 +154,7 @@ struct scrub_fixup_nodatasum {
        struct btrfs_device     *dev;
        u64                     logical;
        struct btrfs_root       *root;
-       struct btrfs_work_struct
-                               work;
+       struct btrfs_work       work;
        int                     mirror_num;
 };
 
@@ -174,8 +172,7 @@ struct scrub_copy_nocow_ctx {
        int                     mirror_num;
        u64                     physical_for_dev_replace;
        struct list_head        inodes;
-       struct btrfs_work_struct
-                               work;
+       struct btrfs_work       work;
 };
 
 struct scrub_warning {
@@ -234,7 +231,7 @@ static int scrub_pages(struct scrub_ctx *sctx, u64 logical, u64 len,
                       u64 gen, int mirror_num, u8 *csum, int force,
                       u64 physical_for_dev_replace);
 static void scrub_bio_end_io(struct bio *bio, int err);
-static void scrub_bio_end_io_worker(struct btrfs_work_struct *work);
+static void scrub_bio_end_io_worker(struct btrfs_work *work);
 static void scrub_block_complete(struct scrub_block *sblock);
 static void scrub_remap_extent(struct btrfs_fs_info *fs_info,
                               u64 extent_logical, u64 extent_len,
@@ -251,14 +248,14 @@ static int scrub_add_page_to_wr_bio(struct scrub_ctx *sctx,
                                    struct scrub_page *spage);
 static void scrub_wr_submit(struct scrub_ctx *sctx);
 static void scrub_wr_bio_end_io(struct bio *bio, int err);
-static void scrub_wr_bio_end_io_worker(struct btrfs_work_struct *work);
+static void scrub_wr_bio_end_io_worker(struct btrfs_work *work);
 static int write_page_nocow(struct scrub_ctx *sctx,
                            u64 physical_for_dev_replace, struct page *page);
 static int copy_nocow_pages_for_inode(u64 inum, u64 offset, u64 root,
                                      struct scrub_copy_nocow_ctx *ctx);
 static int copy_nocow_pages(struct scrub_ctx *sctx, u64 logical, u64 len,
                            int mirror_num, u64 physical_for_dev_replace);
-static void copy_nocow_pages_worker(struct btrfs_work_struct *work);
+static void copy_nocow_pages_worker(struct btrfs_work *work);
 static void __scrub_blocked_if_needed(struct btrfs_fs_info *fs_info);
 static void scrub_blocked_if_needed(struct btrfs_fs_info *fs_info);
 
@@ -737,7 +734,7 @@ out:
        return -EIO;
 }
 
-static void scrub_fixup_nodatasum(struct btrfs_work_struct *work)
+static void scrub_fixup_nodatasum(struct btrfs_work *work)
 {
        int ret;
        struct scrub_fixup_nodatasum *fixup;
@@ -1622,7 +1619,7 @@ static void scrub_wr_bio_end_io(struct bio *bio, int err)
        btrfs_queue_work(fs_info->scrub_wr_completion_workers, &sbio->work);
 }
 
-static void scrub_wr_bio_end_io_worker(struct btrfs_work_struct *work)
+static void scrub_wr_bio_end_io_worker(struct btrfs_work *work)
 {
        struct scrub_bio *sbio = container_of(work, struct scrub_bio, work);
        struct scrub_ctx *sctx = sbio->sctx;
@@ -2090,7 +2087,7 @@ static void scrub_bio_end_io(struct bio *bio, int err)
        btrfs_queue_work(fs_info->scrub_workers, &sbio->work);
 }
 
-static void scrub_bio_end_io_worker(struct btrfs_work_struct *work)
+static void scrub_bio_end_io_worker(struct btrfs_work *work)
 {
        struct scrub_bio *sbio = container_of(work, struct scrub_bio, work);
        struct scrub_ctx *sctx = sbio->sctx;
@@ -3161,7 +3158,7 @@ static int record_inode_for_nocow(u64 inum, u64 offset, u64 root, void *ctx)
 
 #define COPY_COMPLETE 1
 
-static void copy_nocow_pages_worker(struct btrfs_work_struct *work)
+static void copy_nocow_pages_worker(struct btrfs_work *work)
 {
        struct scrub_copy_nocow_ctx *nocow_ctx =
                container_of(work, struct scrub_copy_nocow_ctx, work);
index 0066cff077ce186e3c0046299695157cad5a48f7..b4660c413c73b43dead8d6fd3e3ee63bc32df10d 100644 (file)
@@ -440,7 +440,7 @@ done:
        blk_finish_plug(&plug);
 }
 
-static void pending_bios_fn(struct btrfs_work_struct *work)
+static void pending_bios_fn(struct btrfs_work *work)
 {
        struct btrfs_device *device;
 
index 5d9a03773ca6341ababf93e4c9971a1fe7c39b74..80754f9dd3df9faa208a03a274bb7274a002b671 100644 (file)
@@ -95,7 +95,7 @@ struct btrfs_device {
        /* per-device scrub information */
        struct scrub_ctx *scrub_device;
 
-       struct btrfs_work_struct work;
+       struct btrfs_work work;
        struct rcu_head rcu;
        struct work_struct rcu_work;