drm/rockchip: gem: support force alloc cma buffer with flags
authorMark Yao <mark.yao@rock-chips.com>
Wed, 26 Jul 2017 07:44:54 +0000 (15:44 +0800)
committerHuang, Tao <huangtao@rock-chips.com>
Wed, 9 Aug 2017 08:34:59 +0000 (16:34 +0800)
Change-Id: I4749eac53609f865d0d4230364b1cbaf39ee0955
Signed-off-by: Mark Yao <mark.yao@rock-chips.com>
drivers/gpu/drm/rockchip/rockchip_drm_fbdev.c
drivers/gpu/drm/rockchip/rockchip_drm_gem.c
drivers/gpu/drm/rockchip/rockchip_drm_gem.h
include/uapi/drm/rockchip_drm.h

index 1832cbbd0c978a39d679a0661d5fa8fea7f46e9b..5bd8444a8059c9697d4172c083abd481e9c69c98 100644 (file)
@@ -88,7 +88,7 @@ static int rockchip_drm_fbdev_create(struct drm_fb_helper *helper,
 
        size = mode_cmd.pitches[0] * mode_cmd.height;
 
-       rk_obj = rockchip_gem_create_object(dev, size, true);
+       rk_obj = rockchip_gem_create_object(dev, size, true, 0);
        if (IS_ERR(rk_obj))
                return -ENOMEM;
 
index bdb84c4bab9ddd51a47e35a29534c6bdb7743e27..d7dd65cba2c4cbca5b3af3cea9b74b1134305b38 100644 (file)
@@ -241,60 +241,82 @@ static void rockchip_gem_put_pages(struct rockchip_gem_object *rk_obj)
        drm_gem_put_pages(&rk_obj->base, rk_obj->pages, true, true);
 }
 
-static int rockchip_gem_alloc_iommu(struct rockchip_gem_object *rk_obj,
-                                   bool alloc_kmap)
+static int rockchip_gem_alloc_cma(struct rockchip_gem_object *rk_obj)
 {
+       struct drm_gem_object *obj = &rk_obj->base;
+       struct drm_device *drm = obj->dev;
+       struct sg_table *sgt;
        int ret;
 
-       ret = rockchip_gem_get_pages(rk_obj);
-       if (ret < 0)
-               return ret;
+       init_dma_attrs(&rk_obj->dma_attrs);
+       dma_set_attr(DMA_ATTR_WRITE_COMBINE, &rk_obj->dma_attrs);
+       dma_set_attr(DMA_ATTR_NO_KERNEL_MAPPING, &rk_obj->dma_attrs);
 
-       ret = rockchip_gem_iommu_map(rk_obj);
-       if (ret < 0)
-               goto err_free;
+       rk_obj->cookie = dma_alloc_attrs(drm->dev, obj->size,
+                                        &rk_obj->dma_handle, GFP_KERNEL,
+                                        &rk_obj->dma_attrs);
+       if (!rk_obj->cookie) {
+               DRM_ERROR("failed to allocate %zu byte dma buffer", obj->size);
+               return -ENOMEM;
+       }
 
-       if (alloc_kmap) {
-               rk_obj->kvaddr = vmap(rk_obj->pages, rk_obj->num_pages, VM_MAP,
-                                     pgprot_writecombine(PAGE_KERNEL));
-               if (!rk_obj->kvaddr) {
-                       DRM_ERROR("failed to vmap() buffer\n");
-                       ret = -ENOMEM;
-                       goto err_unmap;
-               }
+       sgt = kzalloc(sizeof(*sgt), GFP_KERNEL);
+       if (!sgt) {
+               ret = -ENOMEM;
+               goto err_dma_free;
        }
 
+       ret = dma_get_sgtable_attrs(drm->dev, sgt, rk_obj->cookie,
+                                   rk_obj->dma_handle, obj->size,
+                                   &rk_obj->dma_attrs);
+       if (ret) {
+               DRM_ERROR("failed to allocate sgt, %d\n", ret);
+               goto err_sgt_free;
+       }
+
+       rk_obj->num_pages = rk_obj->base.size >> PAGE_SHIFT;
+
+       rk_obj->pages = drm_calloc_large(rk_obj->num_pages,
+                                        sizeof(*rk_obj->pages));
+       if (!rk_obj->pages) {
+               DRM_ERROR("failed to allocate pages.\n");
+               goto err_sg_table_free;
+       }
+
+       if (drm_prime_sg_to_page_addr_arrays(sgt, rk_obj->pages, NULL,
+                                            rk_obj->num_pages)) {
+               DRM_ERROR("invalid sgtable.\n");
+               ret = -EINVAL;
+               goto err_page_free;
+       }
+
+       rk_obj->sgt = sgt;
+
        return 0;
 
-err_unmap:
-       rockchip_gem_iommu_unmap(rk_obj);
-err_free:
-       rockchip_gem_put_pages(rk_obj);
+err_page_free:
+       drm_free_large(rk_obj->pages);
+err_sg_table_free:
+       sg_free_table(sgt);
+err_sgt_free:
+       kfree(sgt);
+err_dma_free:
+       dma_free_attrs(drm->dev, obj->size, rk_obj->cookie,
+                      rk_obj->dma_addr, &rk_obj->dma_attrs);
 
        return ret;
 }
 
-static int rockchip_gem_alloc_dma(struct rockchip_gem_object *rk_obj,
-                                 bool alloc_kmap)
+static void rockchip_gem_free_cma(struct rockchip_gem_object *rk_obj)
 {
        struct drm_gem_object *obj = &rk_obj->base;
        struct drm_device *drm = obj->dev;
 
-       init_dma_attrs(&rk_obj->dma_attrs);
-       dma_set_attr(DMA_ATTR_WRITE_COMBINE, &rk_obj->dma_attrs);
-
-       if (!alloc_kmap)
-               dma_set_attr(DMA_ATTR_NO_KERNEL_MAPPING, &rk_obj->dma_attrs);
-
-       rk_obj->kvaddr = dma_alloc_attrs(drm->dev, obj->size,
-                                        &rk_obj->dma_addr, GFP_KERNEL,
-                                        &rk_obj->dma_attrs);
-       if (!rk_obj->kvaddr) {
-               DRM_ERROR("failed to allocate %zu byte dma buffer", obj->size);
-               return -ENOMEM;
-       }
-
-       return 0;
+       drm_free_large(rk_obj->pages);
+       sg_free_table(rk_obj->sgt);
+       kfree(rk_obj->sgt);
+       dma_free_attrs(drm->dev, obj->size, rk_obj->cookie,
+                      rk_obj->dma_addr, &rk_obj->dma_attrs);
 }
 
 static int rockchip_gem_alloc_buf(struct rockchip_gem_object *rk_obj,
@@ -303,39 +325,74 @@ static int rockchip_gem_alloc_buf(struct rockchip_gem_object *rk_obj,
        struct drm_gem_object *obj = &rk_obj->base;
        struct drm_device *drm = obj->dev;
        struct rockchip_drm_private *private = drm->dev_private;
+       int ret;
+
+       if (!private->domain)
+               rk_obj->flags |= ROCKCHIP_BO_CONTIG;
+
+       if (rk_obj->flags & ROCKCHIP_BO_CONTIG) {
+               rk_obj->buf_type = ROCKCHIP_GEM_BUF_TYPE_CMA;
+               ret = rockchip_gem_alloc_cma(rk_obj);
+               if (ret < 0)
+                       return ret;
+       } else {
+               rk_obj->buf_type = ROCKCHIP_GEM_BUF_TYPE_SHMEM;
+               ret = rockchip_gem_get_pages(rk_obj);
+               if (ret < 0)
+                       return ret;
+       }
+
+       if (private->domain) {
+               ret = rockchip_gem_iommu_map(rk_obj);
+               if (ret < 0)
+                       goto err_free;
+       } else {
+               WARN_ON(!rk_obj->dma_handle);
+               rk_obj->dma_addr = rk_obj->dma_handle;
+       }
+
+       if (alloc_kmap) {
+               rk_obj->kvaddr = vmap(rk_obj->pages, rk_obj->num_pages, VM_MAP,
+                                     pgprot_writecombine(PAGE_KERNEL));
+               if (!rk_obj->kvaddr) {
+                       DRM_ERROR("failed to vmap() buffer\n");
+                       ret = -ENOMEM;
+                       goto err_iommu_free;
+               }
+       }
 
+       return 0;
+
+err_iommu_free:
        if (private->domain)
-               return rockchip_gem_alloc_iommu(rk_obj, alloc_kmap);
+               rockchip_gem_iommu_unmap(rk_obj);
+err_free:
+       if (rk_obj->buf_type == ROCKCHIP_GEM_BUF_TYPE_CMA)
+               rockchip_gem_free_cma(rk_obj);
        else
-               return rockchip_gem_alloc_dma(rk_obj, alloc_kmap);
+               rockchip_gem_put_pages(rk_obj);
+       return ret;
 }
 
-static void rockchip_gem_free_iommu(struct rockchip_gem_object *rk_obj)
+static void rockchip_gem_free_buf(struct rockchip_gem_object *rk_obj)
 {
-       vunmap(rk_obj->kvaddr);
-       rockchip_gem_iommu_unmap(rk_obj);
-       rockchip_gem_put_pages(rk_obj);
-}
+       struct drm_device *drm = rk_obj->base.dev;
+       struct rockchip_drm_private *private = drm->dev_private;
 
-static void rockchip_gem_free_dma(struct rockchip_gem_object *rk_obj)
-{
-       struct drm_gem_object *obj = &rk_obj->base;
-       struct drm_device *drm = obj->dev;
+       if (private->domain)
+               rockchip_gem_iommu_unmap(rk_obj);
 
-       dma_free_attrs(drm->dev, obj->size, rk_obj->kvaddr,
-                      rk_obj->dma_addr, &rk_obj->dma_attrs);
-}
+       vunmap(rk_obj->kvaddr);
 
-static void rockchip_gem_free_buf(struct rockchip_gem_object *rk_obj)
-{
-       if (rk_obj->pages)
-               rockchip_gem_free_iommu(rk_obj);
-       else
-               rockchip_gem_free_dma(rk_obj);
+       if (rk_obj->buf_type == ROCKCHIP_GEM_BUF_TYPE_SHMEM) {
+               rockchip_gem_put_pages(rk_obj);
+       } else {
+               rockchip_gem_free_cma(rk_obj);
+       }
 }
 
-static int rockchip_drm_gem_object_mmap_iommu(struct drm_gem_object *obj,
-                                             struct vm_area_struct *vma)
+static int rockchip_drm_gem_object_mmap_shm(struct drm_gem_object *obj,
+                                           struct vm_area_struct *vma)
 {
        struct rockchip_gem_object *rk_obj = to_rockchip_obj(obj);
        unsigned int i, count = obj->size >> PAGE_SHIFT;
@@ -360,13 +417,13 @@ static int rockchip_drm_gem_object_mmap_iommu(struct drm_gem_object *obj,
        return 0;
 }
 
-static int rockchip_drm_gem_object_mmap_dma(struct drm_gem_object *obj,
+static int rockchip_drm_gem_object_mmap_cma(struct drm_gem_object *obj,
                                            struct vm_area_struct *vma)
 {
        struct rockchip_gem_object *rk_obj = to_rockchip_obj(obj);
        struct drm_device *drm = obj->dev;
 
-       return dma_mmap_attrs(drm->dev, vma, rk_obj->kvaddr, rk_obj->dma_addr,
+       return dma_mmap_attrs(drm->dev, vma, rk_obj->cookie, rk_obj->dma_handle,
                              obj->size, &rk_obj->dma_attrs);
 }
 
@@ -386,10 +443,10 @@ static int rockchip_drm_gem_object_mmap(struct drm_gem_object *obj,
         */
        vma->vm_flags &= ~VM_PFNMAP;
 
-       if (rk_obj->pages)
-               ret = rockchip_drm_gem_object_mmap_iommu(obj, vma);
+       if (rk_obj->buf_type == ROCKCHIP_GEM_BUF_TYPE_SHMEM)
+               ret = rockchip_drm_gem_object_mmap_shm(obj, vma);
        else
-               ret = rockchip_drm_gem_object_mmap_dma(obj, vma);
+               ret = rockchip_drm_gem_object_mmap_cma(obj, vma);
 
        if (ret)
                drm_gem_vm_close(vma);
@@ -464,7 +521,7 @@ static void rockchip_gem_release_object(struct rockchip_gem_object *rk_obj)
 
 struct rockchip_gem_object *
 rockchip_gem_create_object(struct drm_device *drm, unsigned int size,
-                          bool alloc_kmap)
+                          bool alloc_kmap, unsigned int flags)
 {
        struct rockchip_gem_object *rk_obj;
        int ret;
@@ -472,6 +529,7 @@ rockchip_gem_create_object(struct drm_device *drm, unsigned int size,
        rk_obj = rockchip_gem_alloc_object(drm, size);
        if (IS_ERR(rk_obj))
                return rk_obj;
+       rk_obj->flags = flags;
 
        ret = rockchip_gem_alloc_buf(rk_obj, alloc_kmap);
        if (ret)
@@ -528,7 +586,7 @@ rockchip_gem_create_with_handle(struct drm_file *file_priv,
        struct drm_gem_object *obj;
        int ret;
 
-       rk_obj = rockchip_gem_create_object(drm, size, false);
+       rk_obj = rockchip_gem_create_object(drm, size, false, flags);
        if (IS_ERR(rk_obj))
                return ERR_CAST(rk_obj);
 
@@ -542,8 +600,6 @@ rockchip_gem_create_with_handle(struct drm_file *file_priv,
        if (ret)
                goto err_handle_create;
 
-       rk_obj->flags = flags;
-
        /* drop reference from allocate - handle holds it now. */
        drm_gem_object_unreference_unlocked(obj);
 
@@ -855,27 +911,10 @@ unlock:
 struct sg_table *rockchip_gem_prime_get_sg_table(struct drm_gem_object *obj)
 {
        struct rockchip_gem_object *rk_obj = to_rockchip_obj(obj);
-       struct drm_device *drm = obj->dev;
-       struct sg_table *sgt;
-       int ret;
 
-       if (rk_obj->pages)
-               return drm_prime_pages_to_sg(rk_obj->pages, rk_obj->num_pages);
+       WARN_ON(!rk_obj->pages);
 
-       sgt = kzalloc(sizeof(*sgt), GFP_KERNEL);
-       if (!sgt)
-               return ERR_PTR(-ENOMEM);
-
-       ret = dma_get_sgtable_attrs(drm->dev, sgt, rk_obj->kvaddr,
-                                   rk_obj->dma_addr, obj->size,
-                                   &rk_obj->dma_attrs);
-       if (ret) {
-               DRM_ERROR("failed to allocate sgt, %d\n", ret);
-               kfree(sgt);
-               return ERR_PTR(ret);
-       }
-
-       return sgt;
+       return drm_prime_pages_to_sg(rk_obj->pages, rk_obj->num_pages);
 }
 
 static unsigned long rockchip_sg_get_contiguous_size(struct sg_table *sgt,
@@ -962,26 +1001,18 @@ void *rockchip_gem_prime_vmap(struct drm_gem_object *obj)
 {
        struct rockchip_gem_object *rk_obj = to_rockchip_obj(obj);
 
-       if (rk_obj->pages)
-               return vmap(rk_obj->pages, rk_obj->num_pages, VM_MAP,
-                           pgprot_writecombine(PAGE_KERNEL));
+       if (rk_obj->kvaddr)
+               return rk_obj->kvaddr;
 
-       if (dma_get_attr(DMA_ATTR_NO_KERNEL_MAPPING, &rk_obj->dma_attrs))
-               return NULL;
+       rk_obj->kvaddr = vmap(rk_obj->pages, rk_obj->num_pages, VM_MAP,
+                             pgprot_writecombine(PAGE_KERNEL));
 
        return rk_obj->kvaddr;
 }
 
 void rockchip_gem_prime_vunmap(struct drm_gem_object *obj, void *vaddr)
 {
-       struct rockchip_gem_object *rk_obj = to_rockchip_obj(obj);
-
-       if (rk_obj->pages) {
-               vunmap(vaddr);
-               return;
-       }
-
-       /* Nothing to do if allocated by DMA mapping API. */
+       /* Unmap buffer on buffer destroy. */
 }
 
 int rockchip_gem_prime_begin_cpu_access(struct drm_gem_object *obj,
index a2b151945b5171156bf6a6f612318f4e9404c0c3..fb143add842ef86d10b6d04dc9f5d17a869a57c3 100644 (file)
 
 #define to_rockchip_obj(x) container_of(x, struct rockchip_gem_object, base)
 
+enum rockchip_gem_buf_type {
+       ROCKCHIP_GEM_BUF_TYPE_CMA,
+       ROCKCHIP_GEM_BUF_TYPE_SHMEM,
+};
+
 struct rockchip_gem_object {
        struct drm_gem_object base;
        unsigned int flags;
+       enum rockchip_gem_buf_type buf_type;
 
        void *kvaddr;
+       void *cookie;
        dma_addr_t dma_addr;
+       dma_addr_t dma_handle;
 
        /* Used when IOMMU is disabled */
        struct dma_attrs dma_attrs;
@@ -67,8 +75,8 @@ int rockchip_gem_mmap_buf(struct drm_gem_object *obj,
                          struct vm_area_struct *vma);
 
 struct rockchip_gem_object *
-       rockchip_gem_create_object(struct drm_device *drm, unsigned int size,
-                                  bool alloc_kmap);
+rockchip_gem_create_object(struct drm_device *drm, unsigned int size,
+                          bool alloc_kmap, unsigned int flags);
 
 void rockchip_gem_free_object(struct drm_gem_object *obj);
 
index ff6d53e325c929ad8fbbf2fc30f25cb83fd7713e..574e62472caf7a962ff6bc568e8cdbe06c06af22 100644 (file)
 
 /* memory type definitions. */
 enum drm_rockchip_gem_mem_type {
-       /* Physically Continuous memory and used as default. */
-       ROCKCHIP_BO_CONTIG      = 0 << 0,
-       /* Physically Non-Continuous memory. */
-       ROCKCHIP_BO_NONCONTIG   = 1 << 0,
-       /* non-cachable mapping and used as default. */
-       ROCKCHIP_BO_NONCACHABLE = 0 << 1,
+       /* Physically Continuous memory. */
+       ROCKCHIP_BO_CONTIG      = 1 << 0,
        /* cachable mapping. */
        ROCKCHIP_BO_CACHABLE    = 1 << 1,
        /* write-combine mapping. */
        ROCKCHIP_BO_WC          = 1 << 2,
-       ROCKCHIP_BO_MASK        = ROCKCHIP_BO_NONCONTIG | ROCKCHIP_BO_CACHABLE |
+       ROCKCHIP_BO_MASK        = ROCKCHIP_BO_CONTIG | ROCKCHIP_BO_CACHABLE |
                                ROCKCHIP_BO_WC
 };