Subversion Repositories Kolibri OS

Rev

Go to most recent revision | Blame | Last modification | View Log | RSS feed

  1. /*
  2.  * Copyright 2010 Jerome Glisse <glisse@freedesktop.org>
  3.  *
  4.  * Permission is hereby granted, free of charge, to any person obtaining a
  5.  * copy of this software and associated documentation files (the "Software"),
  6.  * to deal in the Software without restriction, including without limitation
  7.  * on the rights to use, copy, modify, merge, publish, distribute, sub
  8.  * license, and/or sell copies of the Software, and to permit persons to whom
  9.  * the Software is furnished to do so, subject to the following conditions:
  10.  *
  11.  * The above copyright notice and this permission notice (including the next
  12.  * paragraph) shall be included in all copies or substantial portions of the
  13.  * Software.
  14.  *
  15.  * THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR
  16.  * IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY,
  17.  * FITNESS FOR A PARTICULAR PURPOSE AND NON-INFRINGEMENT. IN NO EVENT SHALL
  18.  * THE AUTHOR(S) AND/OR THEIR SUPPLIERS BE LIABLE FOR ANY CLAIM,
  19.  * DAMAGES OR OTHER LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR
  20.  * OTHERWISE, ARISING FROM, OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE
  21.  * USE OR OTHER DEALINGS IN THE SOFTWARE.
  22.  */
  23. #include "r600_pipe.h"
  24. #include "r600_public.h"
  25. #include "r600_isa.h"
  26. #include "evergreen_compute.h"
  27. #include "r600d.h"
  28.  
  29. #include "sb/sb_public.h"
  30.  
  31. #include <errno.h>
  32. #include "pipe/p_shader_tokens.h"
  33. #include "util/u_blitter.h"
  34. #include "util/u_debug.h"
  35. #include "util/u_format_s3tc.h"
  36. #include "util/u_memory.h"
  37. #include "util/u_simple_shaders.h"
  38. #include "util/u_upload_mgr.h"
  39. #include "util/u_math.h"
  40. #include "vl/vl_decoder.h"
  41. #include "vl/vl_video_buffer.h"
  42. #include "radeon/radeon_uvd.h"
  43. #include "os/os_time.h"
  44.  
  45. static const struct debug_named_value debug_options[] = {
  46.         /* logging */
  47.         { "texdepth", DBG_TEX_DEPTH, "Print texture depth info" },
  48.         { "compute", DBG_COMPUTE, "Print compute info" },
  49.         { "vm", DBG_VM, "Print virtual addresses when creating resources" },
  50.         { "trace_cs", DBG_TRACE_CS, "Trace cs and write rlockup_<csid>.c file with faulty cs" },
  51.  
  52.         /* shaders */
  53.         { "fs", DBG_FS, "Print fetch shaders" },
  54.         { "vs", DBG_VS, "Print vertex shaders" },
  55.         { "gs", DBG_GS, "Print geometry shaders" },
  56.         { "ps", DBG_PS, "Print pixel shaders" },
  57.         { "cs", DBG_CS, "Print compute shaders" },
  58.  
  59.         /* features */
  60.         { "nohyperz", DBG_NO_HYPERZ, "Disable Hyper-Z" },
  61. #if defined(R600_USE_LLVM)
  62.         { "nollvm", DBG_NO_LLVM, "Disable the LLVM shader compiler" },
  63. #endif
  64.         { "nocpdma", DBG_NO_CP_DMA, "Disable CP DMA" },
  65.         { "nodma", DBG_NO_ASYNC_DMA, "Disable asynchronous DMA" },
  66.         /* GL uses the word INVALIDATE, gallium uses the word DISCARD */
  67.         { "noinvalrange", DBG_NO_DISCARD_RANGE, "Disable handling of INVALIDATE_RANGE map flags" },
  68.  
  69.         /* shader backend */
  70.         { "sb", DBG_SB, "Enable optimization of graphics shaders" },
  71.         { "sbcl", DBG_SB_CS, "Enable optimization of compute shaders" },
  72.         { "sbdry", DBG_SB_DRY_RUN, "Don't use optimized bytecode (just print the dumps)" },
  73.         { "sbstat", DBG_SB_STAT, "Print optimization statistics for shaders" },
  74.         { "sbdump", DBG_SB_DUMP, "Print IR dumps after some optimization passes" },
  75.         { "sbnofallback", DBG_SB_NO_FALLBACK, "Abort on errors instead of fallback" },
  76.         { "sbdisasm", DBG_SB_DISASM, "Use sb disassembler for shader dumps" },
  77.         { "sbsafemath", DBG_SB_SAFEMATH, "Disable unsafe math optimizations" },
  78.  
  79.         DEBUG_NAMED_VALUE_END /* must be last */
  80. };
  81.  
  82. /*
  83.  * pipe_context
  84.  */
  85. static struct r600_fence *r600_create_fence(struct r600_context *rctx)
  86. {
  87.         struct r600_screen *rscreen = rctx->screen;
  88.         struct r600_fence *fence = NULL;
  89.  
  90.         pipe_mutex_lock(rscreen->fences.mutex);
  91.  
  92.         if (!rscreen->fences.bo) {
  93.                 /* Create the shared buffer object */
  94.                 rscreen->fences.bo = (struct r600_resource*)
  95.                         pipe_buffer_create(&rscreen->screen, PIPE_BIND_CUSTOM,
  96.                                            PIPE_USAGE_STAGING, 4096);
  97.                 if (!rscreen->fences.bo) {
  98.                         R600_ERR("r600: failed to create bo for fence objects\n");
  99.                         goto out;
  100.                 }
  101.                 rscreen->fences.data = r600_buffer_mmap_sync_with_rings(rctx, rscreen->fences.bo, PIPE_TRANSFER_READ_WRITE);
  102.         }
  103.  
  104.         if (!LIST_IS_EMPTY(&rscreen->fences.pool)) {
  105.                 struct r600_fence *entry;
  106.  
  107.                 /* Try to find a freed fence that has been signalled */
  108.                 LIST_FOR_EACH_ENTRY(entry, &rscreen->fences.pool, head) {
  109.                         if (rscreen->fences.data[entry->index] != 0) {
  110.                                 LIST_DELINIT(&entry->head);
  111.                                 fence = entry;
  112.                                 break;
  113.                         }
  114.                 }
  115.         }
  116.  
  117.         if (!fence) {
  118.                 /* Allocate a new fence */
  119.                 struct r600_fence_block *block;
  120.                 unsigned index;
  121.  
  122.                 if ((rscreen->fences.next_index + 1) >= 1024) {
  123.                         R600_ERR("r600: too many concurrent fences\n");
  124.                         goto out;
  125.                 }
  126.  
  127.                 index = rscreen->fences.next_index++;
  128.  
  129.                 if (!(index % FENCE_BLOCK_SIZE)) {
  130.                         /* Allocate a new block */
  131.                         block = CALLOC_STRUCT(r600_fence_block);
  132.                         if (block == NULL)
  133.                                 goto out;
  134.  
  135.                         LIST_ADD(&block->head, &rscreen->fences.blocks);
  136.                 } else {
  137.                         block = LIST_ENTRY(struct r600_fence_block, rscreen->fences.blocks.next, head);
  138.                 }
  139.  
  140.                 fence = &block->fences[index % FENCE_BLOCK_SIZE];
  141.                 fence->index = index;
  142.         }
  143.  
  144.         pipe_reference_init(&fence->reference, 1);
  145.  
  146.         rscreen->fences.data[fence->index] = 0;
  147.         r600_context_emit_fence(rctx, rscreen->fences.bo, fence->index, 1);
  148.  
  149.         /* Create a dummy BO so that fence_finish without a timeout can sleep waiting for completion */
  150.         fence->sleep_bo = (struct r600_resource*)
  151.                         pipe_buffer_create(&rctx->screen->screen, PIPE_BIND_CUSTOM,
  152.                                            PIPE_USAGE_STAGING, 1);
  153.         /* Add the fence as a dummy relocation. */
  154.         r600_context_bo_reloc(rctx, &rctx->rings.gfx, fence->sleep_bo, RADEON_USAGE_READWRITE);
  155.  
  156. out:
  157.         pipe_mutex_unlock(rscreen->fences.mutex);
  158.         return fence;
  159. }
  160.  
  161. static void r600_flush(struct pipe_context *ctx, unsigned flags)
  162. {
  163.         struct r600_context *rctx = (struct r600_context *)ctx;
  164.         struct pipe_query *render_cond = NULL;
  165.         unsigned render_cond_mode = 0;
  166.         boolean render_cond_cond = FALSE;
  167.  
  168.         if (rctx->rings.gfx.cs->cdw == rctx->initial_gfx_cs_size)
  169.                 return;
  170.  
  171.         rctx->rings.gfx.flushing = true;
  172.         /* Disable render condition. */
  173.         if (rctx->current_render_cond) {
  174.                 render_cond = rctx->current_render_cond;
  175.                 render_cond_cond = rctx->current_render_cond_cond;
  176.                 render_cond_mode = rctx->current_render_cond_mode;
  177.                 ctx->render_condition(ctx, NULL, FALSE, 0);
  178.         }
  179.  
  180.         r600_context_flush(rctx, flags);
  181.         rctx->rings.gfx.flushing = false;
  182.         r600_begin_new_cs(rctx);
  183.  
  184.         /* Re-enable render condition. */
  185.         if (render_cond) {
  186.                 ctx->render_condition(ctx, render_cond, render_cond_cond, render_cond_mode);
  187.         }
  188.  
  189.         rctx->initial_gfx_cs_size = rctx->rings.gfx.cs->cdw;
  190. }
  191.  
  192. static void r600_flush_from_st(struct pipe_context *ctx,
  193.                                struct pipe_fence_handle **fence,
  194.                                unsigned flags)
  195. {
  196.         struct r600_context *rctx = (struct r600_context *)ctx;
  197.         struct r600_fence **rfence = (struct r600_fence**)fence;
  198.         unsigned fflags;
  199.  
  200.         fflags = flags & PIPE_FLUSH_END_OF_FRAME ? RADEON_FLUSH_END_OF_FRAME : 0;
  201.         if (rfence) {
  202.                 *rfence = r600_create_fence(rctx);
  203.         }
  204.         /* flush gfx & dma ring, order does not matter as only one can be live */
  205.         if (rctx->rings.dma.cs) {
  206.                 rctx->rings.dma.flush(rctx, fflags);
  207.         }
  208.         rctx->rings.gfx.flush(rctx, fflags);
  209. }
  210.  
  211. static void r600_flush_gfx_ring(void *ctx, unsigned flags)
  212. {
  213.         r600_flush((struct pipe_context*)ctx, flags);
  214. }
  215.  
  216. static void r600_flush_dma_ring(void *ctx, unsigned flags)
  217. {
  218.         struct r600_context *rctx = (struct r600_context *)ctx;
  219.         struct radeon_winsys_cs *cs = rctx->rings.dma.cs;
  220.         unsigned padding_dw, i;
  221.  
  222.         if (!cs->cdw) {
  223.                 return;
  224.         }
  225.  
  226.         /* Pad the DMA CS to a multiple of 8 dwords. */
  227.         padding_dw = 8 - cs->cdw % 8;
  228.         if (padding_dw < 8) {
  229.                 for (i = 0; i < padding_dw; i++) {
  230.                         cs->buf[cs->cdw++] = DMA_PACKET(DMA_PACKET_NOP, 0, 0, 0);
  231.                 }
  232.         }
  233.  
  234.         rctx->rings.dma.flushing = true;
  235.         rctx->ws->cs_flush(cs, flags, 0);
  236.         rctx->rings.dma.flushing = false;
  237. }
  238.  
  239. boolean r600_rings_is_buffer_referenced(struct r600_context *ctx,
  240.                                         struct radeon_winsys_cs_handle *buf,
  241.                                         enum radeon_bo_usage usage)
  242. {
  243.         if (ctx->ws->cs_is_buffer_referenced(ctx->rings.gfx.cs, buf, usage)) {
  244.                 return TRUE;
  245.         }
  246.         if (ctx->rings.dma.cs) {
  247.                 if (ctx->ws->cs_is_buffer_referenced(ctx->rings.dma.cs, buf, usage)) {
  248.                         return TRUE;
  249.                 }
  250.         }
  251.         return FALSE;
  252. }
  253.  
  254. void *r600_buffer_mmap_sync_with_rings(struct r600_context *ctx,
  255.                                         struct r600_resource *resource,
  256.                                         unsigned usage)
  257. {
  258.         enum radeon_bo_usage rusage = RADEON_USAGE_READWRITE;
  259.         unsigned flags = 0;
  260.         bool sync_flush = TRUE;
  261.  
  262.         if (usage & PIPE_TRANSFER_UNSYNCHRONIZED) {
  263.                 return ctx->ws->buffer_map(resource->cs_buf, NULL, usage);
  264.         }
  265.  
  266.         if (!(usage & PIPE_TRANSFER_WRITE)) {
  267.                 /* have to wait for pending read */
  268.                 rusage = RADEON_USAGE_WRITE;
  269.         }
  270.         if (usage & PIPE_TRANSFER_DONTBLOCK) {
  271.                 flags |= RADEON_FLUSH_ASYNC;
  272.         }
  273.  
  274.         if (ctx->ws->cs_is_buffer_referenced(ctx->rings.gfx.cs, resource->cs_buf, rusage) && ctx->rings.gfx.cs->cdw) {
  275.                 ctx->rings.gfx.flush(ctx, flags);
  276.                 if (usage & PIPE_TRANSFER_DONTBLOCK) {
  277.                         return NULL;
  278.                 }
  279.         }
  280.         if (ctx->rings.dma.cs) {
  281.                 if (ctx->ws->cs_is_buffer_referenced(ctx->rings.dma.cs, resource->cs_buf, rusage) && ctx->rings.dma.cs->cdw) {
  282.                         ctx->rings.dma.flush(ctx, flags);
  283.                         if (usage & PIPE_TRANSFER_DONTBLOCK) {
  284.                                 return NULL;
  285.                         }
  286.                 }
  287.         }
  288.  
  289.         if (usage & PIPE_TRANSFER_DONTBLOCK) {
  290.                 if (ctx->ws->buffer_is_busy(resource->buf, rusage)) {
  291.                         return NULL;
  292.                 }
  293.         }
  294.         if (sync_flush) {
  295.                 /* Try to avoid busy-waiting in radeon_bo_wait. */
  296.                 ctx->ws->cs_sync_flush(ctx->rings.gfx.cs);
  297.                 if (ctx->rings.dma.cs) {
  298.                         ctx->ws->cs_sync_flush(ctx->rings.dma.cs);
  299.                 }
  300.         }
  301.  
  302.         /* at this point everything is synchronized */
  303.         return ctx->ws->buffer_map(resource->cs_buf, NULL, usage);
  304. }
  305.  
  306. static void r600_flush_from_winsys(void *ctx, unsigned flags)
  307. {
  308.         struct r600_context *rctx = (struct r600_context *)ctx;
  309.  
  310.         rctx->rings.gfx.flush(rctx, flags);
  311. }
  312.  
  313. static void r600_flush_dma_from_winsys(void *ctx, unsigned flags)
  314. {
  315.         struct r600_context *rctx = (struct r600_context *)ctx;
  316.  
  317.         rctx->rings.dma.flush(rctx, flags);
  318. }
  319.  
  320. static void r600_destroy_context(struct pipe_context *context)
  321. {
  322.         struct r600_context *rctx = (struct r600_context *)context;
  323.  
  324.         r600_isa_destroy(rctx->isa);
  325.  
  326.         r600_sb_context_destroy(rctx->sb_context);
  327.  
  328.         pipe_resource_reference((struct pipe_resource**)&rctx->dummy_cmask, NULL);
  329.         pipe_resource_reference((struct pipe_resource**)&rctx->dummy_fmask, NULL);
  330.  
  331.         if (rctx->dummy_pixel_shader) {
  332.                 rctx->context.delete_fs_state(&rctx->context, rctx->dummy_pixel_shader);
  333.         }
  334.         if (rctx->custom_dsa_flush) {
  335.                 rctx->context.delete_depth_stencil_alpha_state(&rctx->context, rctx->custom_dsa_flush);
  336.         }
  337.         if (rctx->custom_blend_resolve) {
  338.                 rctx->context.delete_blend_state(&rctx->context, rctx->custom_blend_resolve);
  339.         }
  340.         if (rctx->custom_blend_decompress) {
  341.                 rctx->context.delete_blend_state(&rctx->context, rctx->custom_blend_decompress);
  342.         }
  343.         util_unreference_framebuffer_state(&rctx->framebuffer.state);
  344.  
  345.         if (rctx->blitter) {
  346.                 util_blitter_destroy(rctx->blitter);
  347.         }
  348.         if (rctx->uploader) {
  349.                 u_upload_destroy(rctx->uploader);
  350.         }
  351.         if (rctx->allocator_so_filled_size) {
  352.                 u_suballocator_destroy(rctx->allocator_so_filled_size);
  353.         }
  354.         if (rctx->allocator_fetch_shader) {
  355.                 u_suballocator_destroy(rctx->allocator_fetch_shader);
  356.         }
  357.         util_slab_destroy(&rctx->pool_transfers);
  358.  
  359.         r600_release_command_buffer(&rctx->start_cs_cmd);
  360.  
  361.         if (rctx->rings.gfx.cs) {
  362.                 rctx->ws->cs_destroy(rctx->rings.gfx.cs);
  363.         }
  364.         if (rctx->rings.dma.cs) {
  365.                 rctx->ws->cs_destroy(rctx->rings.dma.cs);
  366.         }
  367.  
  368.         FREE(rctx);
  369. }
  370.  
  371. static struct pipe_context *r600_create_context(struct pipe_screen *screen, void *priv)
  372. {
  373.         struct r600_context *rctx = CALLOC_STRUCT(r600_context);
  374.         struct r600_screen* rscreen = (struct r600_screen *)screen;
  375.  
  376.         if (rctx == NULL)
  377.                 return NULL;
  378.  
  379.         util_slab_create(&rctx->pool_transfers,
  380.                          sizeof(struct r600_transfer), 64,
  381.                          UTIL_SLAB_SINGLETHREADED);
  382.  
  383.         rctx->context.screen = screen;
  384.         rctx->context.priv = priv;
  385.         rctx->context.destroy = r600_destroy_context;
  386.         rctx->context.flush = r600_flush_from_st;
  387.  
  388.         /* Easy accessing of screen/winsys. */
  389.         rctx->screen = rscreen;
  390.         rctx->ws = rscreen->ws;
  391.         rctx->family = rscreen->family;
  392.         rctx->chip_class = rscreen->chip_class;
  393.         rctx->keep_tiling_flags = rscreen->info.drm_minor >= 12;
  394.  
  395.         LIST_INITHEAD(&rctx->active_nontimer_queries);
  396.  
  397.         r600_init_blit_functions(rctx);
  398.         r600_init_query_functions(rctx);
  399.         r600_init_context_resource_functions(rctx);
  400.         r600_init_surface_functions(rctx);
  401.  
  402.         if (rscreen->info.has_uvd) {
  403.                 rctx->context.create_video_decoder = r600_uvd_create_decoder;
  404.                 rctx->context.create_video_buffer = r600_video_buffer_create;
  405.         } else {
  406.                 rctx->context.create_video_decoder = vl_create_decoder;
  407.                 rctx->context.create_video_buffer = vl_video_buffer_create;
  408.         }
  409.  
  410.         r600_init_common_state_functions(rctx);
  411.  
  412.         switch (rctx->chip_class) {
  413.         case R600:
  414.         case R700:
  415.                 r600_init_state_functions(rctx);
  416.                 r600_init_atom_start_cs(rctx);
  417.                 rctx->max_db = 4;
  418.                 rctx->custom_dsa_flush = r600_create_db_flush_dsa(rctx);
  419.                 rctx->custom_blend_resolve = rctx->chip_class == R700 ? r700_create_resolve_blend(rctx)
  420.                                                                       : r600_create_resolve_blend(rctx);
  421.                 rctx->custom_blend_decompress = r600_create_decompress_blend(rctx);
  422.                 rctx->has_vertex_cache = !(rctx->family == CHIP_RV610 ||
  423.                                            rctx->family == CHIP_RV620 ||
  424.                                            rctx->family == CHIP_RS780 ||
  425.                                            rctx->family == CHIP_RS880 ||
  426.                                            rctx->family == CHIP_RV710);
  427.                 break;
  428.         case EVERGREEN:
  429.         case CAYMAN:
  430.                 evergreen_init_state_functions(rctx);
  431.                 evergreen_init_atom_start_cs(rctx);
  432.                 evergreen_init_atom_start_compute_cs(rctx);
  433.                 rctx->max_db = 8;
  434.                 rctx->custom_dsa_flush = evergreen_create_db_flush_dsa(rctx);
  435.                 rctx->custom_blend_resolve = evergreen_create_resolve_blend(rctx);
  436.                 rctx->custom_blend_decompress = evergreen_create_decompress_blend(rctx);
  437.                 rctx->has_vertex_cache = !(rctx->family == CHIP_CEDAR ||
  438.                                            rctx->family == CHIP_PALM ||
  439.                                            rctx->family == CHIP_SUMO ||
  440.                                            rctx->family == CHIP_SUMO2 ||
  441.                                            rctx->family == CHIP_CAICOS ||
  442.                                            rctx->family == CHIP_CAYMAN ||
  443.                                            rctx->family == CHIP_ARUBA);
  444.                 break;
  445.         default:
  446.                 R600_ERR("Unsupported chip class %d.\n", rctx->chip_class);
  447.                 goto fail;
  448.         }
  449.  
  450.         if (rscreen->trace_bo) {
  451.                 rctx->rings.gfx.cs = rctx->ws->cs_create(rctx->ws, RING_GFX, rscreen->trace_bo->cs_buf);
  452.         } else {
  453.                 rctx->rings.gfx.cs = rctx->ws->cs_create(rctx->ws, RING_GFX, NULL);
  454.         }
  455.         rctx->rings.gfx.flush = r600_flush_gfx_ring;
  456.         rctx->ws->cs_set_flush_callback(rctx->rings.gfx.cs, r600_flush_from_winsys, rctx);
  457.         rctx->rings.gfx.flushing = false;
  458.  
  459.         rctx->rings.dma.cs = NULL;
  460.         if (rscreen->info.r600_has_dma && !(rscreen->debug_flags & DBG_NO_ASYNC_DMA)) {
  461.                 rctx->rings.dma.cs = rctx->ws->cs_create(rctx->ws, RING_DMA, NULL);
  462.                 rctx->rings.dma.flush = r600_flush_dma_ring;
  463.                 rctx->ws->cs_set_flush_callback(rctx->rings.dma.cs, r600_flush_dma_from_winsys, rctx);
  464.                 rctx->rings.dma.flushing = false;
  465.         }
  466.  
  467.         rctx->uploader = u_upload_create(&rctx->context, 1024 * 1024, 256,
  468.                                         PIPE_BIND_INDEX_BUFFER |
  469.                                         PIPE_BIND_CONSTANT_BUFFER);
  470.         if (!rctx->uploader)
  471.                 goto fail;
  472.  
  473.         rctx->allocator_fetch_shader = u_suballocator_create(&rctx->context, 64 * 1024, 256,
  474.                                                              0, PIPE_USAGE_STATIC, FALSE);
  475.         if (!rctx->allocator_fetch_shader)
  476.                 goto fail;
  477.  
  478.         rctx->allocator_so_filled_size = u_suballocator_create(&rctx->context, 4096, 4,
  479.                                                                 0, PIPE_USAGE_STATIC, TRUE);
  480.         if (!rctx->allocator_so_filled_size)
  481.                 goto fail;
  482.  
  483.         rctx->isa = calloc(1, sizeof(struct r600_isa));
  484.         if (!rctx->isa || r600_isa_init(rctx, rctx->isa))
  485.                 goto fail;
  486.  
  487.         rctx->blitter = util_blitter_create(&rctx->context);
  488.         if (rctx->blitter == NULL)
  489.                 goto fail;
  490.         util_blitter_set_texture_multisample(rctx->blitter, rscreen->has_msaa);
  491.         rctx->blitter->draw_rectangle = r600_draw_rectangle;
  492.  
  493.         r600_begin_new_cs(rctx);
  494.         r600_get_backend_mask(rctx); /* this emits commands and must be last */
  495.  
  496.         rctx->dummy_pixel_shader =
  497.                 util_make_fragment_cloneinput_shader(&rctx->context, 0,
  498.                                                      TGSI_SEMANTIC_GENERIC,
  499.                                                      TGSI_INTERPOLATE_CONSTANT);
  500.         rctx->context.bind_fs_state(&rctx->context, rctx->dummy_pixel_shader);
  501.  
  502.         return &rctx->context;
  503.  
  504. fail:
  505.         r600_destroy_context(&rctx->context);
  506.         return NULL;
  507. }
  508.  
  509. /*
  510.  * pipe_screen
  511.  */
  512. static const char* r600_get_vendor(struct pipe_screen* pscreen)
  513. {
  514.         return "X.Org";
  515. }
  516.  
  517. static const char *r600_get_family_name(enum radeon_family family)
  518. {
  519.         switch(family) {
  520.         case CHIP_R600: return "AMD R600";
  521.         case CHIP_RV610: return "AMD RV610";
  522.         case CHIP_RV630: return "AMD RV630";
  523.         case CHIP_RV670: return "AMD RV670";
  524.         case CHIP_RV620: return "AMD RV620";
  525.         case CHIP_RV635: return "AMD RV635";
  526.         case CHIP_RS780: return "AMD RS780";
  527.         case CHIP_RS880: return "AMD RS880";
  528.         case CHIP_RV770: return "AMD RV770";
  529.         case CHIP_RV730: return "AMD RV730";
  530.         case CHIP_RV710: return "AMD RV710";
  531.         case CHIP_RV740: return "AMD RV740";
  532.         case CHIP_CEDAR: return "AMD CEDAR";
  533.         case CHIP_REDWOOD: return "AMD REDWOOD";
  534.         case CHIP_JUNIPER: return "AMD JUNIPER";
  535.         case CHIP_CYPRESS: return "AMD CYPRESS";
  536.         case CHIP_HEMLOCK: return "AMD HEMLOCK";
  537.         case CHIP_PALM: return "AMD PALM";
  538.         case CHIP_SUMO: return "AMD SUMO";
  539.         case CHIP_SUMO2: return "AMD SUMO2";
  540.         case CHIP_BARTS: return "AMD BARTS";
  541.         case CHIP_TURKS: return "AMD TURKS";
  542.         case CHIP_CAICOS: return "AMD CAICOS";
  543.         case CHIP_CAYMAN: return "AMD CAYMAN";
  544.         case CHIP_ARUBA: return "AMD ARUBA";
  545.         default: return "AMD unknown";
  546.         }
  547. }
  548.  
  549. static const char* r600_get_name(struct pipe_screen* pscreen)
  550. {
  551.         struct r600_screen *rscreen = (struct r600_screen *)pscreen;
  552.  
  553.         return r600_get_family_name(rscreen->family);
  554. }
  555.  
  556. static int r600_get_param(struct pipe_screen* pscreen, enum pipe_cap param)
  557. {
  558.         struct r600_screen *rscreen = (struct r600_screen *)pscreen;
  559.         enum radeon_family family = rscreen->family;
  560.  
  561.         switch (param) {
  562.         /* Supported features (boolean caps). */
  563.         case PIPE_CAP_NPOT_TEXTURES:
  564.         case PIPE_CAP_TWO_SIDED_STENCIL:
  565.         case PIPE_CAP_ANISOTROPIC_FILTER:
  566.         case PIPE_CAP_POINT_SPRITE:
  567.         case PIPE_CAP_OCCLUSION_QUERY:
  568.         case PIPE_CAP_TEXTURE_SHADOW_MAP:
  569.         case PIPE_CAP_TEXTURE_MIRROR_CLAMP:
  570.         case PIPE_CAP_BLEND_EQUATION_SEPARATE:
  571.         case PIPE_CAP_TEXTURE_SWIZZLE:
  572.         case PIPE_CAP_DEPTH_CLIP_DISABLE:
  573.         case PIPE_CAP_SHADER_STENCIL_EXPORT:
  574.         case PIPE_CAP_VERTEX_ELEMENT_INSTANCE_DIVISOR:
  575.         case PIPE_CAP_MIXED_COLORBUFFER_FORMATS:
  576.         case PIPE_CAP_TGSI_FS_COORD_ORIGIN_UPPER_LEFT:
  577.         case PIPE_CAP_TGSI_FS_COORD_PIXEL_CENTER_HALF_INTEGER:
  578.         case PIPE_CAP_SM3:
  579.         case PIPE_CAP_SEAMLESS_CUBE_MAP:
  580.         case PIPE_CAP_PRIMITIVE_RESTART:
  581.         case PIPE_CAP_CONDITIONAL_RENDER:
  582.         case PIPE_CAP_TEXTURE_BARRIER:
  583.         case PIPE_CAP_VERTEX_COLOR_UNCLAMPED:
  584.         case PIPE_CAP_QUADS_FOLLOW_PROVOKING_VERTEX_CONVENTION:
  585.         case PIPE_CAP_TGSI_INSTANCEID:
  586.         case PIPE_CAP_VERTEX_BUFFER_OFFSET_4BYTE_ALIGNED_ONLY:
  587.         case PIPE_CAP_VERTEX_BUFFER_STRIDE_4BYTE_ALIGNED_ONLY:
  588.         case PIPE_CAP_VERTEX_ELEMENT_SRC_OFFSET_4BYTE_ALIGNED_ONLY:
  589.         case PIPE_CAP_USER_INDEX_BUFFERS:
  590.         case PIPE_CAP_USER_CONSTANT_BUFFERS:
  591.         case PIPE_CAP_COMPUTE:
  592.         case PIPE_CAP_START_INSTANCE:
  593.         case PIPE_CAP_MAX_DUAL_SOURCE_RENDER_TARGETS:
  594.         case PIPE_CAP_TEXTURE_BUFFER_OBJECTS:
  595.         case PIPE_CAP_PREFER_BLIT_BASED_TEXTURE_TRANSFER:
  596.         case PIPE_CAP_QUERY_PIPELINE_STATISTICS:
  597.         case PIPE_CAP_TEXTURE_MULTISAMPLE:
  598.                 return 1;
  599.  
  600.         case PIPE_CAP_TGSI_TEXCOORD:
  601.                 return 0;
  602.  
  603.         case PIPE_CAP_MAX_TEXTURE_BUFFER_SIZE:
  604.                 return MIN2(rscreen->info.vram_size, 0xFFFFFFFF);
  605.  
  606.         case PIPE_CAP_MIN_MAP_BUFFER_ALIGNMENT:
  607.                 return R600_MAP_BUFFER_ALIGNMENT;
  608.  
  609.         case PIPE_CAP_CONSTANT_BUFFER_OFFSET_ALIGNMENT:
  610.                 return 256;
  611.  
  612.         case PIPE_CAP_TEXTURE_BUFFER_OFFSET_ALIGNMENT:
  613.                 return 1;
  614.  
  615.         case PIPE_CAP_GLSL_FEATURE_LEVEL:
  616.                 return 140;
  617.  
  618.         /* Supported except the original R600. */
  619.         case PIPE_CAP_INDEP_BLEND_ENABLE:
  620.         case PIPE_CAP_INDEP_BLEND_FUNC:
  621.                 /* R600 doesn't support per-MRT blends */
  622.                 return family == CHIP_R600 ? 0 : 1;
  623.  
  624.         /* Supported on Evergreen. */
  625.         case PIPE_CAP_SEAMLESS_CUBE_MAP_PER_TEXTURE:
  626.         case PIPE_CAP_CUBE_MAP_ARRAY:
  627.                 return family >= CHIP_CEDAR ? 1 : 0;
  628.  
  629.         /* Unsupported features. */
  630.         case PIPE_CAP_TGSI_FS_COORD_ORIGIN_LOWER_LEFT:
  631.         case PIPE_CAP_TGSI_FS_COORD_PIXEL_CENTER_INTEGER:
  632.         case PIPE_CAP_SCALED_RESOLVE:
  633.         case PIPE_CAP_TGSI_CAN_COMPACT_CONSTANTS:
  634.         case PIPE_CAP_FRAGMENT_COLOR_CLAMPED:
  635.         case PIPE_CAP_VERTEX_COLOR_CLAMPED:
  636.         case PIPE_CAP_USER_VERTEX_BUFFERS:
  637.                 return 0;
  638.  
  639.         /* Stream output. */
  640.         case PIPE_CAP_MAX_STREAM_OUTPUT_BUFFERS:
  641.                 return rscreen->has_streamout ? 4 : 0;
  642.         case PIPE_CAP_STREAM_OUTPUT_PAUSE_RESUME:
  643.                 return rscreen->has_streamout ? 1 : 0;
  644.         case PIPE_CAP_MAX_STREAM_OUTPUT_SEPARATE_COMPONENTS:
  645.         case PIPE_CAP_MAX_STREAM_OUTPUT_INTERLEAVED_COMPONENTS:
  646.                 return 32*4;
  647.  
  648.         /* Texturing. */
  649.         case PIPE_CAP_MAX_TEXTURE_2D_LEVELS:
  650.         case PIPE_CAP_MAX_TEXTURE_3D_LEVELS:
  651.         case PIPE_CAP_MAX_TEXTURE_CUBE_LEVELS:
  652.                 if (family >= CHIP_CEDAR)
  653.                         return 15;
  654.                 else
  655.                         return 14;
  656.         case PIPE_CAP_MAX_TEXTURE_ARRAY_LAYERS:
  657.                 return rscreen->info.drm_minor >= 9 ?
  658.                         (family >= CHIP_CEDAR ? 16384 : 8192) : 0;
  659.         case PIPE_CAP_MAX_COMBINED_SAMPLERS:
  660.                 return 32;
  661.  
  662.         /* Render targets. */
  663.         case PIPE_CAP_MAX_RENDER_TARGETS:
  664.                 /* XXX some r6xx are buggy and can only do 4 */
  665.                 return 8;
  666.  
  667.         /* Timer queries, present when the clock frequency is non zero. */
  668.         case PIPE_CAP_QUERY_TIME_ELAPSED:
  669.                 return rscreen->info.r600_clock_crystal_freq != 0;
  670.         case PIPE_CAP_QUERY_TIMESTAMP:
  671.                 return rscreen->info.drm_minor >= 20 &&
  672.                        rscreen->info.r600_clock_crystal_freq != 0;
  673.  
  674.         case PIPE_CAP_MIN_TEXEL_OFFSET:
  675.                 return -8;
  676.  
  677.         case PIPE_CAP_MAX_TEXEL_OFFSET:
  678.                 return 7;
  679.  
  680.         case PIPE_CAP_TEXTURE_BORDER_COLOR_QUIRK:
  681.                 return PIPE_QUIRK_TEXTURE_BORDER_COLOR_SWIZZLE_R600;
  682.         case PIPE_CAP_ENDIANNESS:
  683.                 return PIPE_ENDIAN_LITTLE;
  684.         }
  685.         return 0;
  686. }
  687.  
  688. static float r600_get_paramf(struct pipe_screen* pscreen,
  689.                              enum pipe_capf param)
  690. {
  691.         struct r600_screen *rscreen = (struct r600_screen *)pscreen;
  692.         enum radeon_family family = rscreen->family;
  693.  
  694.         switch (param) {
  695.         case PIPE_CAPF_MAX_LINE_WIDTH:
  696.         case PIPE_CAPF_MAX_LINE_WIDTH_AA:
  697.         case PIPE_CAPF_MAX_POINT_WIDTH:
  698.         case PIPE_CAPF_MAX_POINT_WIDTH_AA:
  699.                 if (family >= CHIP_CEDAR)
  700.                         return 16384.0f;
  701.                 else
  702.                         return 8192.0f;
  703.         case PIPE_CAPF_MAX_TEXTURE_ANISOTROPY:
  704.                 return 16.0f;
  705.         case PIPE_CAPF_MAX_TEXTURE_LOD_BIAS:
  706.                 return 16.0f;
  707.         case PIPE_CAPF_GUARD_BAND_LEFT:
  708.         case PIPE_CAPF_GUARD_BAND_TOP:
  709.         case PIPE_CAPF_GUARD_BAND_RIGHT:
  710.         case PIPE_CAPF_GUARD_BAND_BOTTOM:
  711.                 return 0.0f;
  712.         }
  713.         return 0.0f;
  714. }
  715.  
  716. static int r600_get_shader_param(struct pipe_screen* pscreen, unsigned shader, enum pipe_shader_cap param)
  717. {
  718.         switch(shader)
  719.         {
  720.         case PIPE_SHADER_FRAGMENT:
  721.         case PIPE_SHADER_VERTEX:
  722.         case PIPE_SHADER_COMPUTE:
  723.                 break;
  724.         case PIPE_SHADER_GEOMETRY:
  725.                 /* XXX: support and enable geometry programs */
  726.                 return 0;
  727.         default:
  728.                 /* XXX: support tessellation on Evergreen */
  729.                 return 0;
  730.         }
  731.  
  732.         switch (param) {
  733.         case PIPE_SHADER_CAP_MAX_INSTRUCTIONS:
  734.         case PIPE_SHADER_CAP_MAX_ALU_INSTRUCTIONS:
  735.         case PIPE_SHADER_CAP_MAX_TEX_INSTRUCTIONS:
  736.         case PIPE_SHADER_CAP_MAX_TEX_INDIRECTIONS:
  737.                 return 16384;
  738.         case PIPE_SHADER_CAP_MAX_CONTROL_FLOW_DEPTH:
  739.                 return 32;
  740.         case PIPE_SHADER_CAP_MAX_INPUTS:
  741.                 return 32;
  742.         case PIPE_SHADER_CAP_MAX_TEMPS:
  743.                 return 256; /* Max native temporaries. */
  744.         case PIPE_SHADER_CAP_MAX_ADDRS:
  745.                 /* XXX Isn't this equal to TEMPS? */
  746.                 return 1; /* Max native address registers */
  747.         case PIPE_SHADER_CAP_MAX_CONSTS:
  748.                 return R600_MAX_CONST_BUFFER_SIZE;
  749.         case PIPE_SHADER_CAP_MAX_CONST_BUFFERS:
  750.                 return R600_MAX_USER_CONST_BUFFERS;
  751.         case PIPE_SHADER_CAP_MAX_PREDS:
  752.                 return 0; /* nothing uses this */
  753.         case PIPE_SHADER_CAP_TGSI_CONT_SUPPORTED:
  754.                 return 1;
  755.         case PIPE_SHADER_CAP_TGSI_SQRT_SUPPORTED:
  756.                 return 0;
  757.         case PIPE_SHADER_CAP_INDIRECT_INPUT_ADDR:
  758.         case PIPE_SHADER_CAP_INDIRECT_OUTPUT_ADDR:
  759.         case PIPE_SHADER_CAP_INDIRECT_TEMP_ADDR:
  760.         case PIPE_SHADER_CAP_INDIRECT_CONST_ADDR:
  761.                 return 1;
  762.         case PIPE_SHADER_CAP_SUBROUTINES:
  763.                 return 0;
  764.         case PIPE_SHADER_CAP_INTEGERS:
  765.                 return 1;
  766.         case PIPE_SHADER_CAP_MAX_TEXTURE_SAMPLERS:
  767.                 return 16;
  768.         case PIPE_SHADER_CAP_PREFERRED_IR:
  769.                 if (shader == PIPE_SHADER_COMPUTE) {
  770.                         return PIPE_SHADER_IR_LLVM;
  771.                 } else {
  772.                         return PIPE_SHADER_IR_TGSI;
  773.                 }
  774.         }
  775.         return 0;
  776. }
  777.  
  778. static int r600_get_video_param(struct pipe_screen *screen,
  779.                                 enum pipe_video_profile profile,
  780.                                 enum pipe_video_cap param)
  781. {
  782.         switch (param) {
  783.         case PIPE_VIDEO_CAP_SUPPORTED:
  784.                 return vl_profile_supported(screen, profile);
  785.         case PIPE_VIDEO_CAP_NPOT_TEXTURES:
  786.                 return 1;
  787.         case PIPE_VIDEO_CAP_MAX_WIDTH:
  788.         case PIPE_VIDEO_CAP_MAX_HEIGHT:
  789.                 return vl_video_buffer_max_size(screen);
  790.         case PIPE_VIDEO_CAP_PREFERED_FORMAT:
  791.                 return PIPE_FORMAT_NV12;
  792.         case PIPE_VIDEO_CAP_PREFERS_INTERLACED:
  793.                 return false;
  794.         case PIPE_VIDEO_CAP_SUPPORTS_INTERLACED:
  795.                 return false;
  796.         case PIPE_VIDEO_CAP_SUPPORTS_PROGRESSIVE:
  797.                 return true;
  798.         default:
  799.                 return 0;
  800.         }
  801. }
  802.  
  803. const char * r600_llvm_gpu_string(enum radeon_family family)
  804. {
  805.         const char * gpu_family;
  806.  
  807.         switch (family) {
  808.         case CHIP_R600:
  809.         case CHIP_RV630:
  810.         case CHIP_RV635:
  811.         case CHIP_RV670:
  812.                 gpu_family = "r600";
  813.                 break;
  814.         case CHIP_RV610:
  815.         case CHIP_RV620:
  816.         case CHIP_RS780:
  817.         case CHIP_RS880:
  818.                 gpu_family = "rs880";
  819.                 break;
  820.         case CHIP_RV710:
  821.                 gpu_family = "rv710";
  822.                 break;
  823.         case CHIP_RV730:
  824.                 gpu_family = "rv730";
  825.                 break;
  826.         case CHIP_RV740:
  827.         case CHIP_RV770:
  828.                 gpu_family = "rv770";
  829.                 break;
  830.         case CHIP_PALM:
  831.         case CHIP_CEDAR:
  832.                 gpu_family = "cedar";
  833.                 break;
  834.         case CHIP_SUMO:
  835.         case CHIP_SUMO2:
  836.                 gpu_family = "sumo";
  837.                 break;
  838.         case CHIP_REDWOOD:
  839.                 gpu_family = "redwood";
  840.                 break;
  841.         case CHIP_JUNIPER:
  842.                 gpu_family = "juniper";
  843.                 break;
  844.         case CHIP_HEMLOCK:
  845.         case CHIP_CYPRESS:
  846.                 gpu_family = "cypress";
  847.                 break;
  848.         case CHIP_BARTS:
  849.                 gpu_family = "barts";
  850.                 break;
  851.         case CHIP_TURKS:
  852.                 gpu_family = "turks";
  853.                 break;
  854.         case CHIP_CAICOS:
  855.                 gpu_family = "caicos";
  856.                 break;
  857.         case CHIP_CAYMAN:
  858.         case CHIP_ARUBA:
  859.                 gpu_family = "cayman";
  860.                 break;
  861.         default:
  862.                 gpu_family = "";
  863.                 fprintf(stderr, "Chip not supported by r600 llvm "
  864.                         "backend, please file a bug at " PACKAGE_BUGREPORT "\n");
  865.                 break;
  866.         }
  867.         return gpu_family;
  868. }
  869.  
  870.  
  871. static int r600_get_compute_param(struct pipe_screen *screen,
  872.         enum pipe_compute_cap param,
  873.         void *ret)
  874. {
  875.         struct r600_screen *rscreen = (struct r600_screen *)screen;
  876.         //TODO: select these params by asic
  877.         switch (param) {
  878.         case PIPE_COMPUTE_CAP_IR_TARGET: {
  879.                 const char *gpu = r600_llvm_gpu_string(rscreen->family);
  880.                 if (ret) {
  881.                         sprintf(ret, "%s-r600--", gpu);
  882.                 }
  883.                 return (8 + strlen(gpu)) * sizeof(char);
  884.         }
  885.         case PIPE_COMPUTE_CAP_GRID_DIMENSION:
  886.                 if (ret) {
  887.                         uint64_t * grid_dimension = ret;
  888.                         grid_dimension[0] = 3;
  889.                 }
  890.                 return 1 * sizeof(uint64_t);
  891.  
  892.         case PIPE_COMPUTE_CAP_MAX_GRID_SIZE:
  893.                 if (ret) {
  894.                         uint64_t * grid_size = ret;
  895.                         grid_size[0] = 65535;
  896.                         grid_size[1] = 65535;
  897.                         grid_size[2] = 1;
  898.                 }
  899.                 return 3 * sizeof(uint64_t) ;
  900.  
  901.         case PIPE_COMPUTE_CAP_MAX_BLOCK_SIZE:
  902.                 if (ret) {
  903.                         uint64_t * block_size = ret;
  904.                         block_size[0] = 256;
  905.                         block_size[1] = 256;
  906.                         block_size[2] = 256;
  907.                 }
  908.                 return 3 * sizeof(uint64_t);
  909.  
  910.         case PIPE_COMPUTE_CAP_MAX_THREADS_PER_BLOCK:
  911.                 if (ret) {
  912.                         uint64_t * max_threads_per_block = ret;
  913.                         *max_threads_per_block = 256;
  914.                 }
  915.                 return sizeof(uint64_t);
  916.  
  917.         case PIPE_COMPUTE_CAP_MAX_GLOBAL_SIZE:
  918.                 if (ret) {
  919.                         uint64_t * max_global_size = ret;
  920.                         /* XXX: This is what the proprietary driver reports, we
  921.                          * may want to use a different value. */
  922.                         *max_global_size = 201326592;
  923.                 }
  924.                 return sizeof(uint64_t);
  925.  
  926.         case PIPE_COMPUTE_CAP_MAX_INPUT_SIZE:
  927.                 if (ret) {
  928.                         uint64_t * max_input_size = ret;
  929.                         *max_input_size = 1024;
  930.                 }
  931.                 return sizeof(uint64_t);
  932.  
  933.         case PIPE_COMPUTE_CAP_MAX_LOCAL_SIZE:
  934.                 if (ret) {
  935.                         uint64_t * max_local_size = ret;
  936.                         /* XXX: This is what the proprietary driver reports, we
  937.                          * may want to use a different value. */
  938.                         *max_local_size = 32768;
  939.                 }
  940.                 return sizeof(uint64_t);
  941.  
  942.         case PIPE_COMPUTE_CAP_MAX_MEM_ALLOC_SIZE:
  943.                 if (ret) {
  944.                         uint64_t max_global_size;
  945.                         uint64_t * max_mem_alloc_size = ret;
  946.                         r600_get_compute_param(screen,
  947.                                         PIPE_COMPUTE_CAP_MAX_GLOBAL_SIZE,
  948.                                         &max_global_size);
  949.                         /* OpenCL requres this value be at least
  950.                          * max(MAX_GLOBAL_SIZE / 4, 128 * 1024 *1024)
  951.                          * I'm really not sure what value to report here, but
  952.                          * MAX_GLOBAL_SIZE / 4 seems resonable.
  953.                          */
  954.                         *max_mem_alloc_size = max_global_size / 4;
  955.                 }
  956.                 return sizeof(uint64_t);
  957.  
  958.         default:
  959.                 fprintf(stderr, "unknown PIPE_COMPUTE_CAP %d\n", param);
  960.                 return 0;
  961.         }
  962. }
  963.  
  964. static void r600_destroy_screen(struct pipe_screen* pscreen)
  965. {
  966.         struct r600_screen *rscreen = (struct r600_screen *)pscreen;
  967.  
  968.         if (rscreen == NULL)
  969.                 return;
  970.  
  971.         pipe_mutex_destroy(rscreen->aux_context_lock);
  972.         rscreen->aux_context->destroy(rscreen->aux_context);
  973.  
  974.         if (rscreen->global_pool) {
  975.                 compute_memory_pool_delete(rscreen->global_pool);
  976.         }
  977.  
  978.         if (rscreen->fences.bo) {
  979.                 struct r600_fence_block *entry, *tmp;
  980.  
  981.                 LIST_FOR_EACH_ENTRY_SAFE(entry, tmp, &rscreen->fences.blocks, head) {
  982.                         LIST_DEL(&entry->head);
  983.                         FREE(entry);
  984.                 }
  985.  
  986.                 rscreen->ws->buffer_unmap(rscreen->fences.bo->cs_buf);
  987.                 pipe_resource_reference((struct pipe_resource**)&rscreen->fences.bo, NULL);
  988.         }
  989.         if (rscreen->trace_bo) {
  990.                 rscreen->ws->buffer_unmap(rscreen->trace_bo->cs_buf);
  991.                 pipe_resource_reference((struct pipe_resource**)&rscreen->trace_bo, NULL);
  992.         }
  993.         pipe_mutex_destroy(rscreen->fences.mutex);
  994.  
  995.         rscreen->ws->destroy(rscreen->ws);
  996.         FREE(rscreen);
  997. }
  998.  
  999. static void r600_fence_reference(struct pipe_screen *pscreen,
  1000.                                  struct pipe_fence_handle **ptr,
  1001.                                  struct pipe_fence_handle *fence)
  1002. {
  1003.         struct r600_fence **oldf = (struct r600_fence**)ptr;
  1004.         struct r600_fence *newf = (struct r600_fence*)fence;
  1005.  
  1006.         if (pipe_reference(&(*oldf)->reference, &newf->reference)) {
  1007.                 struct r600_screen *rscreen = (struct r600_screen *)pscreen;
  1008.                 pipe_mutex_lock(rscreen->fences.mutex);
  1009.                 pipe_resource_reference((struct pipe_resource**)&(*oldf)->sleep_bo, NULL);
  1010.                 LIST_ADDTAIL(&(*oldf)->head, &rscreen->fences.pool);
  1011.                 pipe_mutex_unlock(rscreen->fences.mutex);
  1012.         }
  1013.  
  1014.         *ptr = fence;
  1015. }
  1016.  
  1017. static boolean r600_fence_signalled(struct pipe_screen *pscreen,
  1018.                                     struct pipe_fence_handle *fence)
  1019. {
  1020.         struct r600_screen *rscreen = (struct r600_screen *)pscreen;
  1021.         struct r600_fence *rfence = (struct r600_fence*)fence;
  1022.  
  1023.         return rscreen->fences.data[rfence->index] != 0;
  1024. }
  1025.  
  1026. static boolean r600_fence_finish(struct pipe_screen *pscreen,
  1027.                                  struct pipe_fence_handle *fence,
  1028.                                  uint64_t timeout)
  1029. {
  1030.         struct r600_screen *rscreen = (struct r600_screen *)pscreen;
  1031.         struct r600_fence *rfence = (struct r600_fence*)fence;
  1032.         int64_t start_time = 0;
  1033.         unsigned spins = 0;
  1034.  
  1035.         if (timeout != PIPE_TIMEOUT_INFINITE) {
  1036.                 start_time = os_time_get();
  1037.  
  1038.                 /* Convert to microseconds. */
  1039.                 timeout /= 1000;
  1040.         }
  1041.  
  1042.         while (rscreen->fences.data[rfence->index] == 0) {
  1043.                 /* Special-case infinite timeout - wait for the dummy BO to become idle */
  1044.                 if (timeout == PIPE_TIMEOUT_INFINITE) {
  1045.                         rscreen->ws->buffer_wait(rfence->sleep_bo->buf, RADEON_USAGE_READWRITE);
  1046.                         break;
  1047.                 }
  1048.  
  1049.                 /* The dummy BO will be busy until the CS including the fence has completed, or
  1050.                  * the GPU is reset. Don't bother continuing to spin when the BO is idle. */
  1051.                 if (!rscreen->ws->buffer_is_busy(rfence->sleep_bo->buf, RADEON_USAGE_READWRITE))
  1052.                         break;
  1053.  
  1054.                 if (++spins % 256)
  1055.                         continue;
  1056. #ifdef PIPE_OS_UNIX
  1057.                 sched_yield();
  1058. #else
  1059.                 os_time_sleep(10);
  1060. #endif
  1061.                 if (timeout != PIPE_TIMEOUT_INFINITE &&
  1062.                     os_time_get() - start_time >= timeout) {
  1063.                         break;
  1064.                 }
  1065.         }
  1066.  
  1067.         return rscreen->fences.data[rfence->index] != 0;
  1068. }
  1069.  
  1070. static int r600_interpret_tiling(struct r600_screen *rscreen, uint32_t tiling_config)
  1071. {
  1072.         switch ((tiling_config & 0xe) >> 1) {
  1073.         case 0:
  1074.                 rscreen->tiling_info.num_channels = 1;
  1075.                 break;
  1076.         case 1:
  1077.                 rscreen->tiling_info.num_channels = 2;
  1078.                 break;
  1079.         case 2:
  1080.                 rscreen->tiling_info.num_channels = 4;
  1081.                 break;
  1082.         case 3:
  1083.                 rscreen->tiling_info.num_channels = 8;
  1084.                 break;
  1085.         default:
  1086.                 return -EINVAL;
  1087.         }
  1088.  
  1089.         switch ((tiling_config & 0x30) >> 4) {
  1090.         case 0:
  1091.                 rscreen->tiling_info.num_banks = 4;
  1092.                 break;
  1093.         case 1:
  1094.                 rscreen->tiling_info.num_banks = 8;
  1095.                 break;
  1096.         default:
  1097.                 return -EINVAL;
  1098.  
  1099.         }
  1100.         switch ((tiling_config & 0xc0) >> 6) {
  1101.         case 0:
  1102.                 rscreen->tiling_info.group_bytes = 256;
  1103.                 break;
  1104.         case 1:
  1105.                 rscreen->tiling_info.group_bytes = 512;
  1106.                 break;
  1107.         default:
  1108.                 return -EINVAL;
  1109.         }
  1110.         return 0;
  1111. }
  1112.  
  1113. static int evergreen_interpret_tiling(struct r600_screen *rscreen, uint32_t tiling_config)
  1114. {
  1115.         switch (tiling_config & 0xf) {
  1116.         case 0:
  1117.                 rscreen->tiling_info.num_channels = 1;
  1118.                 break;
  1119.         case 1:
  1120.                 rscreen->tiling_info.num_channels = 2;
  1121.                 break;
  1122.         case 2:
  1123.                 rscreen->tiling_info.num_channels = 4;
  1124.                 break;
  1125.         case 3:
  1126.                 rscreen->tiling_info.num_channels = 8;
  1127.                 break;
  1128.         default:
  1129.                 return -EINVAL;
  1130.         }
  1131.  
  1132.         switch ((tiling_config & 0xf0) >> 4) {
  1133.         case 0:
  1134.                 rscreen->tiling_info.num_banks = 4;
  1135.                 break;
  1136.         case 1:
  1137.                 rscreen->tiling_info.num_banks = 8;
  1138.                 break;
  1139.         case 2:
  1140.                 rscreen->tiling_info.num_banks = 16;
  1141.                 break;
  1142.         default:
  1143.                 return -EINVAL;
  1144.         }
  1145.  
  1146.         switch ((tiling_config & 0xf00) >> 8) {
  1147.         case 0:
  1148.                 rscreen->tiling_info.group_bytes = 256;
  1149.                 break;
  1150.         case 1:
  1151.                 rscreen->tiling_info.group_bytes = 512;
  1152.                 break;
  1153.         default:
  1154.                 return -EINVAL;
  1155.         }
  1156.         return 0;
  1157. }
  1158.  
  1159. static int r600_init_tiling(struct r600_screen *rscreen)
  1160. {
  1161.         uint32_t tiling_config = rscreen->info.r600_tiling_config;
  1162.  
  1163.         /* set default group bytes, overridden by tiling info ioctl */
  1164.         if (rscreen->chip_class <= R700) {
  1165.                 rscreen->tiling_info.group_bytes = 256;
  1166.         } else {
  1167.                 rscreen->tiling_info.group_bytes = 512;
  1168.         }
  1169.  
  1170.         if (!tiling_config)
  1171.                 return 0;
  1172.  
  1173.         if (rscreen->chip_class <= R700) {
  1174.                 return r600_interpret_tiling(rscreen, tiling_config);
  1175.         } else {
  1176.                 return evergreen_interpret_tiling(rscreen, tiling_config);
  1177.         }
  1178. }
  1179.  
  1180. static uint64_t r600_get_timestamp(struct pipe_screen *screen)
  1181. {
  1182.         struct r600_screen *rscreen = (struct r600_screen*)screen;
  1183.  
  1184.         return 1000000 * rscreen->ws->query_value(rscreen->ws, RADEON_TIMESTAMP) /
  1185.                         rscreen->info.r600_clock_crystal_freq;
  1186. }
  1187.  
  1188. static int r600_get_driver_query_info(struct pipe_screen *screen,
  1189.                                       unsigned index,
  1190.                                       struct pipe_driver_query_info *info)
  1191. {
  1192.         struct r600_screen *rscreen = (struct r600_screen*)screen;
  1193.         struct pipe_driver_query_info list[] = {
  1194.                 {"draw-calls", R600_QUERY_DRAW_CALLS, 0},
  1195.                 {"requested-VRAM", R600_QUERY_REQUESTED_VRAM, rscreen->info.vram_size, TRUE},
  1196.                 {"requested-GTT", R600_QUERY_REQUESTED_GTT, rscreen->info.gart_size, TRUE},
  1197.                 {"buffer-wait-time", R600_QUERY_BUFFER_WAIT_TIME, 0, FALSE}
  1198.         };
  1199.  
  1200.         if (!info)
  1201.                 return Elements(list);
  1202.  
  1203.         if (index >= Elements(list))
  1204.                 return 0;
  1205.  
  1206.         *info = list[index];
  1207.         return 1;
  1208. }
  1209.  
  1210. struct pipe_screen *r600_screen_create(struct radeon_winsys *ws)
  1211. {
  1212.         struct r600_screen *rscreen = CALLOC_STRUCT(r600_screen);
  1213.  
  1214.         if (rscreen == NULL) {
  1215.                 return NULL;
  1216.         }
  1217.  
  1218.         rscreen->ws = ws;
  1219.         ws->query_info(ws, &rscreen->info);
  1220.  
  1221.         rscreen->debug_flags = debug_get_flags_option("R600_DEBUG", debug_options, 0);
  1222.         if (debug_get_bool_option("R600_DEBUG_COMPUTE", FALSE))
  1223.                 rscreen->debug_flags |= DBG_COMPUTE;
  1224.         if (debug_get_bool_option("R600_DUMP_SHADERS", FALSE))
  1225.                 rscreen->debug_flags |= DBG_FS | DBG_VS | DBG_GS | DBG_PS | DBG_CS;
  1226.         if (!debug_get_bool_option("R600_HYPERZ", TRUE))
  1227.                 rscreen->debug_flags |= DBG_NO_HYPERZ;
  1228.         if (!debug_get_bool_option("R600_LLVM", TRUE))
  1229.                 rscreen->debug_flags |= DBG_NO_LLVM;
  1230.         if (debug_get_bool_option("R600_PRINT_TEXDEPTH", FALSE))
  1231.                 rscreen->debug_flags |= DBG_TEX_DEPTH;
  1232.         rscreen->family = rscreen->info.family;
  1233.         rscreen->chip_class = rscreen->info.chip_class;
  1234.  
  1235.         if (rscreen->family == CHIP_UNKNOWN) {
  1236.                 fprintf(stderr, "r600: Unknown chipset 0x%04X\n", rscreen->info.pci_id);
  1237.                 FREE(rscreen);
  1238.                 return NULL;
  1239.         }
  1240.  
  1241.         /* Figure out streamout kernel support. */
  1242.         switch (rscreen->chip_class) {
  1243.         case R600:
  1244.                 if (rscreen->family < CHIP_RS780) {
  1245.                         rscreen->has_streamout = rscreen->info.drm_minor >= 14;
  1246.                 } else {
  1247.                         rscreen->has_streamout = rscreen->info.drm_minor >= 23;
  1248.                 }
  1249.                 break;
  1250.         case R700:
  1251.                 rscreen->has_streamout = rscreen->info.drm_minor >= 17;
  1252.                 break;
  1253.         case EVERGREEN:
  1254.         case CAYMAN:
  1255.                 rscreen->has_streamout = rscreen->info.drm_minor >= 14;
  1256.                 break;
  1257.         default:
  1258.                 rscreen->has_streamout = FALSE;
  1259.                 break;
  1260.         }
  1261.  
  1262.         /* MSAA support. */
  1263.         switch (rscreen->chip_class) {
  1264.         case R600:
  1265.         case R700:
  1266.                 rscreen->has_msaa = rscreen->info.drm_minor >= 22;
  1267.                 rscreen->has_compressed_msaa_texturing = false;
  1268.                 break;
  1269.         case EVERGREEN:
  1270.                 rscreen->has_msaa = rscreen->info.drm_minor >= 19;
  1271.                 rscreen->has_compressed_msaa_texturing = rscreen->info.drm_minor >= 24;
  1272.                 break;
  1273.         case CAYMAN:
  1274.                 rscreen->has_msaa = rscreen->info.drm_minor >= 19;
  1275.                 rscreen->has_compressed_msaa_texturing = true;
  1276.                 break;
  1277.         default:
  1278.                 rscreen->has_msaa = FALSE;
  1279.                 rscreen->has_compressed_msaa_texturing = false;
  1280.         }
  1281.  
  1282.         rscreen->has_cp_dma = rscreen->info.drm_minor >= 27 &&
  1283.                               !(rscreen->debug_flags & DBG_NO_CP_DMA);
  1284.  
  1285.         if (r600_init_tiling(rscreen)) {
  1286.                 FREE(rscreen);
  1287.                 return NULL;
  1288.         }
  1289.  
  1290.         rscreen->screen.destroy = r600_destroy_screen;
  1291.         rscreen->screen.get_name = r600_get_name;
  1292.         rscreen->screen.get_vendor = r600_get_vendor;
  1293.         rscreen->screen.get_param = r600_get_param;
  1294.         rscreen->screen.get_shader_param = r600_get_shader_param;
  1295.         rscreen->screen.get_paramf = r600_get_paramf;
  1296.         rscreen->screen.get_compute_param = r600_get_compute_param;
  1297.         rscreen->screen.get_timestamp = r600_get_timestamp;
  1298.  
  1299.         if (rscreen->chip_class >= EVERGREEN) {
  1300.                 rscreen->screen.is_format_supported = evergreen_is_format_supported;
  1301.                 rscreen->dma_blit = &evergreen_dma_blit;
  1302.         } else {
  1303.                 rscreen->screen.is_format_supported = r600_is_format_supported;
  1304.                 rscreen->dma_blit = &r600_dma_blit;
  1305.         }
  1306.         rscreen->screen.context_create = r600_create_context;
  1307.         rscreen->screen.fence_reference = r600_fence_reference;
  1308.         rscreen->screen.fence_signalled = r600_fence_signalled;
  1309.         rscreen->screen.fence_finish = r600_fence_finish;
  1310.         rscreen->screen.get_driver_query_info = r600_get_driver_query_info;
  1311.  
  1312.         if (rscreen->info.has_uvd) {
  1313.                 rscreen->screen.get_video_param = r600_uvd_get_video_param;
  1314.                 rscreen->screen.is_video_format_supported = ruvd_is_format_supported;
  1315.         } else {
  1316.                 rscreen->screen.get_video_param = r600_get_video_param;
  1317.                 rscreen->screen.is_video_format_supported = vl_video_buffer_is_format_supported;
  1318.         }
  1319.  
  1320.         r600_init_screen_resource_functions(&rscreen->screen);
  1321.  
  1322.         util_format_s3tc_init();
  1323.  
  1324.         rscreen->fences.bo = NULL;
  1325.         rscreen->fences.data = NULL;
  1326.         rscreen->fences.next_index = 0;
  1327.         LIST_INITHEAD(&rscreen->fences.pool);
  1328.         LIST_INITHEAD(&rscreen->fences.blocks);
  1329.         pipe_mutex_init(rscreen->fences.mutex);
  1330.  
  1331.         rscreen->global_pool = compute_memory_pool_new(rscreen);
  1332.  
  1333.         rscreen->cs_count = 0;
  1334.         if (rscreen->info.drm_minor >= 28 && (rscreen->debug_flags & DBG_TRACE_CS)) {
  1335.                 rscreen->trace_bo = (struct r600_resource*)pipe_buffer_create(&rscreen->screen,
  1336.                                                                                 PIPE_BIND_CUSTOM,
  1337.                                                                                 PIPE_USAGE_STAGING,
  1338.                                                                                 4096);
  1339.                 if (rscreen->trace_bo) {
  1340.                         rscreen->trace_ptr = rscreen->ws->buffer_map(rscreen->trace_bo->cs_buf, NULL,
  1341.                                                                         PIPE_TRANSFER_UNSYNCHRONIZED);
  1342.                 }
  1343.         }
  1344.  
  1345.         /* Create the auxiliary context. */
  1346.         pipe_mutex_init(rscreen->aux_context_lock);
  1347.         rscreen->aux_context = rscreen->screen.context_create(&rscreen->screen, NULL);
  1348.  
  1349. #if 0 /* This is for testing whether aux_context and buffer clearing work correctly. */
  1350.         struct pipe_resource templ = {};
  1351.  
  1352.         templ.width0 = 4;
  1353.         templ.height0 = 2048;
  1354.         templ.depth0 = 1;
  1355.         templ.array_size = 1;
  1356.         templ.target = PIPE_TEXTURE_2D;
  1357.         templ.format = PIPE_FORMAT_R8G8B8A8_UNORM;
  1358.         templ.usage = PIPE_USAGE_STATIC;
  1359.  
  1360.         struct r600_resource *res = r600_resource(rscreen->screen.resource_create(&rscreen->screen, &templ));
  1361.         unsigned char *map = ws->buffer_map(res->cs_buf, NULL, PIPE_TRANSFER_WRITE);
  1362.  
  1363.         memset(map, 0, 256);
  1364.  
  1365.         r600_screen_clear_buffer(rscreen, &res->b.b, 4, 4, 0xCC);
  1366.         r600_screen_clear_buffer(rscreen, &res->b.b, 8, 4, 0xDD);
  1367.         r600_screen_clear_buffer(rscreen, &res->b.b, 12, 4, 0xEE);
  1368.         r600_screen_clear_buffer(rscreen, &res->b.b, 20, 4, 0xFF);
  1369.         r600_screen_clear_buffer(rscreen, &res->b.b, 32, 20, 0x87);
  1370.  
  1371.         ws->buffer_wait(res->buf, RADEON_USAGE_WRITE);
  1372.  
  1373.         int i;
  1374.         for (i = 0; i < 256; i++) {
  1375.                 printf("%02X", map[i]);
  1376.                 if (i % 16 == 15)
  1377.                         printf("\n");
  1378.         }
  1379. #endif
  1380.  
  1381.         return &rscreen->screen;
  1382. }
  1383.