blkio: Fix compile errors
authorDivyesh Shah <dpshah@google.com>
Wed, 14 Apr 2010 09:22:38 +0000 (11:22 +0200)
committerJens Axboe <jens.axboe@oracle.com>
Wed, 14 Apr 2010 09:22:38 +0000 (11:22 +0200)
Fixes compile errors in blk-cgroup code for empty_time stat and a merge fix in
CFQ. The first error was when CONFIG_DEBUG_CFQ_IOSCHED is not set.

Signed-off-by: Divyesh Shah <dpshah@google.com>
Signed-off-by: Jens Axboe <jens.axboe@oracle.com>
block/blk-cgroup.c
block/cfq-iosched.c

index aa97cd455cefa91400759968421ec71ed36b33af..80c1261a7d38308e20d95412d476f0f8d509ca99 100644 (file)
@@ -219,6 +219,33 @@ void blkiocg_update_avg_queue_size_stats(struct blkio_group *blkg)
 }
 EXPORT_SYMBOL_GPL(blkiocg_update_avg_queue_size_stats);
 
+void blkiocg_set_start_empty_time(struct blkio_group *blkg, bool ignore)
+{
+       unsigned long flags;
+       struct blkio_group_stats *stats;
+
+       spin_lock_irqsave(&blkg->stats_lock, flags);
+       stats = &blkg->stats;
+
+       if (stats->stat_arr[BLKIO_STAT_QUEUED][BLKIO_STAT_READ] ||
+                       stats->stat_arr[BLKIO_STAT_QUEUED][BLKIO_STAT_WRITE]) {
+               spin_unlock_irqrestore(&blkg->stats_lock, flags);
+               return;
+       }
+
+       /*
+        * If ignore is set, we do not panic on the empty flag being set
+        * already. This is to avoid cases where there are superfluous timeslice
+        * complete events (for eg., forced_dispatch in CFQ) when no IOs are
+        * served which could result in triggering the empty check incorrectly.
+        */
+       BUG_ON(!ignore && blkio_blkg_empty(stats));
+       stats->start_empty_time = sched_clock();
+       blkio_mark_blkg_empty(stats);
+       spin_unlock_irqrestore(&blkg->stats_lock, flags);
+}
+EXPORT_SYMBOL_GPL(blkiocg_set_start_empty_time);
+
 void blkiocg_update_dequeue_stats(struct blkio_group *blkg,
                        unsigned long dequeue)
 {
@@ -268,33 +295,6 @@ void blkiocg_update_timeslice_used(struct blkio_group *blkg, unsigned long time)
 }
 EXPORT_SYMBOL_GPL(blkiocg_update_timeslice_used);
 
-void blkiocg_set_start_empty_time(struct blkio_group *blkg, bool ignore)
-{
-       unsigned long flags;
-       struct blkio_group_stats *stats;
-
-       spin_lock_irqsave(&blkg->stats_lock, flags);
-       stats = &blkg->stats;
-
-       if (stats->stat_arr[BLKIO_STAT_QUEUED][BLKIO_STAT_READ] ||
-                       stats->stat_arr[BLKIO_STAT_QUEUED][BLKIO_STAT_WRITE]) {
-               spin_unlock_irqrestore(&blkg->stats_lock, flags);
-               return;
-       }
-
-       /*
-        * If ignore is set, we do not panic on the empty flag being set
-        * already. This is to avoid cases where there are superfluous timeslice
-        * complete events (for eg., forced_dispatch in CFQ) when no IOs are
-        * served which could result in triggering the empty check incorrectly.
-        */
-       BUG_ON(!ignore && blkio_blkg_empty(stats));
-       stats->start_empty_time = sched_clock();
-       blkio_mark_blkg_empty(stats);
-       spin_unlock_irqrestore(&blkg->stats_lock, flags);
-}
-EXPORT_SYMBOL_GPL(blkiocg_set_start_empty_time);
-
 void blkiocg_update_dispatch_stats(struct blkio_group *blkg,
                                uint64_t bytes, bool direction, bool sync)
 {
index 9e0df2bdcf2124f1f16afe645e43788e10ec9d9c..01771098355d82c57e1aef5d4224355533f1276a 100644 (file)
@@ -2231,7 +2231,7 @@ static int cfq_forced_dispatch(struct cfq_data *cfqd)
        int dispatched = 0;
 
        /* Expire the timeslice of the current active queue first */
-       cfq_slice_expired(cfqd, 0);
+       cfq_slice_expired(cfqd, 0, true);
        while ((cfqq = cfq_get_next_queue_forced(cfqd)) != NULL) {
                __cfq_set_active_queue(cfqd, cfqq);
                dispatched += __cfq_forced_dispatch_cfqq(cfqq);