drbd: Rename drbd_pp_alloc() to drbd_alloc_pages() and make it non-static
authorAndreas Gruenbacher <agruen@linbit.com>
Thu, 7 Apr 2011 19:02:09 +0000 (21:02 +0200)
committerPhilipp Reisner <philipp.reisner@linbit.com>
Thu, 8 Nov 2012 15:45:15 +0000 (16:45 +0100)
Signed-off-by: Philipp Reisner <philipp.reisner@linbit.com>
Signed-off-by: Lars Ellenberg <lars.ellenberg@linbit.com>
drivers/block/drbd/drbd_int.h
drivers/block/drbd/drbd_receiver.c
drivers/block/drbd/drbd_worker.c

index ab938290e358db91f653d01a211636a025d2be1f..9aca1f40e084c8a9e676ace1e7291bf86b348572 100644 (file)
@@ -1463,6 +1463,7 @@ extern void __drbd_free_peer_req(struct drbd_conf *, struct drbd_peer_request *,
                                 int);
 #define drbd_free_peer_req(m,e) __drbd_free_peer_req(m, e, 0)
 #define drbd_free_net_peer_req(m,e) __drbd_free_peer_req(m, e, 1)
+extern struct page *drbd_alloc_pages(struct drbd_conf *, unsigned int, bool);
 extern void drbd_set_recv_tcq(struct drbd_conf *mdev, int tcq_enabled);
 extern void _drbd_clear_done_ee(struct drbd_conf *mdev, struct list_head *to_be_freed);
 extern void conn_flush_workqueue(struct drbd_tconn *tconn);
index 68914a0d35380bc7882951f8a3273195c7bc4eea..74995e24dc1b25155f2505a82004167805b37283 100644 (file)
@@ -184,7 +184,7 @@ static struct page *__drbd_alloc_pages(struct drbd_conf *mdev,
                return page;
 
        /* Not enough pages immediately available this time.
-        * No need to jump around here, drbd_pp_alloc will retry this
+        * No need to jump around here, drbd_alloc_pages will retry this
         * function "soon". */
        if (page) {
                tmp = page_chain_tail(page, NULL);
@@ -229,7 +229,7 @@ static void drbd_kick_lo_and_reclaim_net(struct drbd_conf *mdev)
 }
 
 /**
- * drbd_pp_alloc() - Returns @number pages, retries forever (or until signalled)
+ * drbd_alloc_pages() - Returns @number pages, retries forever (or until signalled)
  * @mdev:      DRBD device.
  * @number:    number of pages requested
  * @retry:     whether to retry, if not enough pages are available right now
@@ -240,7 +240,8 @@ static void drbd_kick_lo_and_reclaim_net(struct drbd_conf *mdev)
  *
  * Returns a page chain linked via page->private.
  */
-static struct page *drbd_pp_alloc(struct drbd_conf *mdev, unsigned number, bool retry)
+struct page *drbd_alloc_pages(struct drbd_conf *mdev, unsigned int number,
+                             bool retry)
 {
        struct page *page = NULL;
        DEFINE_WAIT(wait);
@@ -265,7 +266,7 @@ static struct page *drbd_pp_alloc(struct drbd_conf *mdev, unsigned number, bool
                        break;
 
                if (signal_pending(current)) {
-                       dev_warn(DEV, "drbd_pp_alloc interrupted!\n");
+                       dev_warn(DEV, "drbd_alloc_pages interrupted!\n");
                        break;
                }
 
@@ -278,7 +279,7 @@ static struct page *drbd_pp_alloc(struct drbd_conf *mdev, unsigned number, bool
        return page;
 }
 
-/* Must not be used from irq, as that may deadlock: see drbd_pp_alloc.
+/* Must not be used from irq, as that may deadlock: see drbd_alloc_pages.
  * Is also used from inside an other spin_lock_irq(&mdev->tconn->req_lock);
  * Either links the page chain back to the global pool,
  * or returns all pages to the system. */
@@ -336,7 +337,7 @@ drbd_alloc_peer_req(struct drbd_conf *mdev, u64 id, sector_t sector,
                return NULL;
        }
 
-       page = drbd_pp_alloc(mdev, nr_pages, (gfp_mask & __GFP_WAIT));
+       page = drbd_alloc_pages(mdev, nr_pages, (gfp_mask & __GFP_WAIT));
        if (!page)
                goto fail;
 
@@ -1425,7 +1426,7 @@ static int drbd_drain_block(struct drbd_conf *mdev, int data_size)
        if (!data_size)
                return 0;
 
-       page = drbd_pp_alloc(mdev, 1, 1);
+       page = drbd_alloc_pages(mdev, 1, 1);
 
        data = kmap(page);
        while (data_size) {
index 1fc1c9e930e09fbd00167a8a0620e4992959bb16..ef35bbd54084f233a9e08959dbfdcf4eb260f95c 100644 (file)
@@ -318,7 +318,7 @@ static int w_e_send_csum(struct drbd_work *w, int cancel)
                 * In case we block on congestion, we could otherwise run into
                 * some distributed deadlock, if the other side blocks on
                 * congestion as well, because our receiver blocks in
-                * drbd_pp_alloc due to pp_in_use > max_buffers. */
+                * drbd_alloc_pages due to pp_in_use > max_buffers. */
                drbd_free_peer_req(mdev, peer_req);
                peer_req = NULL;
                inc_rs_pending(mdev);
@@ -1087,7 +1087,7 @@ int w_e_end_ov_req(struct drbd_work *w, int cancel)
         * In case we block on congestion, we could otherwise run into
         * some distributed deadlock, if the other side blocks on
         * congestion as well, because our receiver blocks in
-        * drbd_pp_alloc due to pp_in_use > max_buffers. */
+        * drbd_alloc_pages due to pp_in_use > max_buffers. */
        drbd_free_peer_req(mdev, peer_req);
        peer_req = NULL;
        inc_rs_pending(mdev);
@@ -1156,7 +1156,7 @@ int w_e_end_ov_reply(struct drbd_work *w, int cancel)
         * In case we block on congestion, we could otherwise run into
         * some distributed deadlock, if the other side blocks on
         * congestion as well, because our receiver blocks in
-        * drbd_pp_alloc due to pp_in_use > max_buffers. */
+        * drbd_alloc_pages due to pp_in_use > max_buffers. */
        drbd_free_peer_req(mdev, peer_req);
        if (!eq)
                drbd_ov_out_of_sync_found(mdev, sector, size);