dlm: use vmalloc for hash tables
authorBryn M. Reeves <bmr@redhat.com>
Fri, 1 Jul 2011 20:49:23 +0000 (15:49 -0500)
committerDavid Teigland <teigland@redhat.com>
Fri, 1 Jul 2011 20:49:23 +0000 (15:49 -0500)
Allocate dlm hash tables in the vmalloc area to allow a greater
maximum size without restructuring of the hash table code.

Signed-off-by: Bryn M. Reeves <bmr@redhat.com>
Signed-off-by: David Teigland <teigland@redhat.com>
fs/dlm/lockspace.c

index 14cbf409975387ca6b404c8b6ed2600c1ae4954d..493d1e7161a42245eca712a601bfe6c53352c183 100644 (file)
@@ -463,7 +463,7 @@ static int new_lockspace(const char *name, int namelen, void **lockspace,
        size = dlm_config.ci_rsbtbl_size;
        ls->ls_rsbtbl_size = size;
 
-       ls->ls_rsbtbl = kmalloc(sizeof(struct dlm_rsbtable) * size, GFP_NOFS);
+       ls->ls_rsbtbl = vmalloc(sizeof(struct dlm_rsbtable) * size);
        if (!ls->ls_rsbtbl)
                goto out_lsfree;
        for (i = 0; i < size; i++) {
@@ -475,7 +475,7 @@ static int new_lockspace(const char *name, int namelen, void **lockspace,
        size = dlm_config.ci_lkbtbl_size;
        ls->ls_lkbtbl_size = size;
 
-       ls->ls_lkbtbl = kmalloc(sizeof(struct dlm_lkbtable) * size, GFP_NOFS);
+       ls->ls_lkbtbl = vmalloc(sizeof(struct dlm_lkbtable) * size);
        if (!ls->ls_lkbtbl)
                goto out_rsbfree;
        for (i = 0; i < size; i++) {
@@ -487,7 +487,7 @@ static int new_lockspace(const char *name, int namelen, void **lockspace,
        size = dlm_config.ci_dirtbl_size;
        ls->ls_dirtbl_size = size;
 
-       ls->ls_dirtbl = kmalloc(sizeof(struct dlm_dirtable) * size, GFP_NOFS);
+       ls->ls_dirtbl = vmalloc(sizeof(struct dlm_dirtable) * size);
        if (!ls->ls_dirtbl)
                goto out_lkbfree;
        for (i = 0; i < size; i++) {
@@ -603,11 +603,11 @@ static int new_lockspace(const char *name, int namelen, void **lockspace,
        spin_unlock(&lslist_lock);
        kfree(ls->ls_recover_buf);
  out_dirfree:
-       kfree(ls->ls_dirtbl);
+       vfree(ls->ls_dirtbl);
  out_lkbfree:
-       kfree(ls->ls_lkbtbl);
+       vfree(ls->ls_lkbtbl);
  out_rsbfree:
-       kfree(ls->ls_rsbtbl);
+       vfree(ls->ls_rsbtbl);
  out_lsfree:
        if (do_unreg)
                kobject_put(&ls->ls_kobj);
@@ -721,7 +721,7 @@ static int release_lockspace(struct dlm_ls *ls, int force)
         */
 
        dlm_dir_clear(ls);
-       kfree(ls->ls_dirtbl);
+       vfree(ls->ls_dirtbl);
 
        /*
         * Free all lkb's on lkbtbl[] lists.
@@ -745,7 +745,7 @@ static int release_lockspace(struct dlm_ls *ls, int force)
        }
        dlm_astd_resume();
 
-       kfree(ls->ls_lkbtbl);
+       vfree(ls->ls_lkbtbl);
 
        /*
         * Free all rsb's on rsbtbl[] lists
@@ -770,7 +770,7 @@ static int release_lockspace(struct dlm_ls *ls, int force)
                }
        }
 
-       kfree(ls->ls_rsbtbl);
+       vfree(ls->ls_rsbtbl);
 
        /*
         * Free structures on any other lists