Oracle 12c In-Memory Column Store – Parte 1: Quando apenas o “In-Memory” não é o bastante.
April 6, 2016

database-in-memory-01-2595522

Essa é uma série de posts sobre a nova feature “Oracle In-Memory Column Store” presente na versão do Oracle 12c. O Oracle há muitos anos, tem fornecido a leitura de blocos diretamente da memória RAM através do buffer cache (v$bh). Ao longo desses anos a Oracle tem feito um grande trabalho, aperfeiçoando cada vez mais o algoritmo LRU afim de otimizar as buscas por blocos quentes e mantê-los cada vez por mais tempo em memória para um acesso muito mais rápido, servindo como um verdadeiro “cache” para o banco de dados.

Com a vinda do IMDB, a arquitetura e a performance muda completamente comparado a leitura no buffer cache da memória do database, a começar pela maneira como o Oracle armazena os dados em memória. Assim como o nome da feature sugere, o Oracle In-Memory Column Store, passa agora a armazenar os dados de forma colunar, totalmente otimizado para a leitura via SDRAM, trabalhando como um verdadeiro DBMS orientado a coluna: Column-oriented DBMS

Não é preciso dizer que a RAM é muito mais rápida que um acesso a disco (isso todo mundo já sabe), assim não é nem preciso comentar ou mostrar aqui, que com a utilização do IMDB o ganho de performance é absurdo. Mas … será que o IMDB vem para resolver todo e qualquer tipo de problema na performance do ambiente?! O que pretendo apresentar nessa série de posts é justamente casos como esses, evidências e provas na utilização da nova feature, que assim como qualquer outra, apresentar suas vantagens e desvantagens e melhores formas de se utilizar.

É incrível a quantidade de DBAs e empresas que acreditam só em marketing mágica, que com apenas um “alter table” todos os problemas de performance irão desaparecer. IMDB não é sinônimo de “desligar o cérebro do DBA”.

A partir de agora, vou apresentar um comportamento bastante incomum em alguns ambientes com o Oracle Inmemory. Através do utilitário Swingbench criei a tabela SOE.ORDER_ITEMS de 12G. Essa será a nossa tabela teste para o uso do IMDB. Aqui mais detalhes da tabela:

sys@ora01 SQL> @size soe.order_items                                                                                           
                                                                                           
OWNER                     SEGMENT_NAME                   SEGMENT_TYPE             SIZE_MB  
------------------------- ------------------------------ ------------------ ------------- 
SOE                       ORDER_ITEMS                    TABLE                   12,398.0 
                                                                            -------------
sum                                                                              12,398.0

1 row selected.

sys@ora01 SQL> -- Atualizando as estatísticas da tabela:
sys@ora01 SQL> EXEC DBMS_STATS.GATHER_TABLE_STATS('SOE', 'ORDER_ITEMS', method_opt => 'FOR TABLE FOR ALL COLUMNS SIZE AUTO', cascade => true);

PL/SQL procedure successfully completed.

sys@ora01 SQL> @tbstat soe.order_items

=============================================
===        O B J E C T   T A B L E        ===
=============================================

OWNER: SOE                              TABLE: ORDER_ITEMS

           Name                            Null?    Type
           ------------------------------- -------- ----------------------------
    1      ORDER_ID                        NOT NULL NUMBER(12)
    2      LINE_ITEM_ID                    NOT NULL NUMBER(3)
    3      PRODUCT_ID                      NOT NULL NUMBER(6)
    4      UNIT_PRICE                               NUMBER(8,2)
    5      QUANTITY                                 NUMBER(8)
    6      DISPATCH_DATE                            DATE
    7      RETURN_DATE                              DATE
    8      GIFT_WRAP                                VARCHAR2(20)
    9      CONDITION                                VARCHAR2(20)
   10      SUPPLIER_ID                              NUMBER(6)
   11      ESTIMATED_DELIVERY                       DATE

================================================================================
Table Statistics
================================================================================
TABLE_NAME               : ORDER_ITEMS
STATUS                   : VALID
LAST_ANALYZED            : 29/03/2016 22:08:46
PARTITIONED              : NO
TEMPORARY                : N
DEGREE                   : 1
BUFFER_POOL              : DEFAULT
CACHE                    : NO
CELL_FLASH_CACHE         : DEFAULT
COMPRESSION              : DISABLED
RESULT_CACHE             : DEFAULT
ROW_MOVEMENT             : DISABLED
LOGGING                  : YES
SAMPLE_SIZE              : 85789721
==========================================================================================================================================================================
Column Statistics
==========================================================================================================================================================================
ID#   NAME                                       ANALYZED               NDV           DENSITY        # NULLS   # BUCKETS          SAMPLE      HISTOGRAM
==========================================================================================================================================================================
1     ORDER_ID                                29-03-16 22:08       28434432        0.00000004              0           1        85789721           NONE
2     LINE_ITEM_ID                            29-03-16 22:08              5        0.20000000              0           1        85789721           NONE
3     PRODUCT_ID                              29-03-16 22:08            999        0.00100100              0           1        85789721           NONE
4     UNIT_PRICE                              29-03-16 22:08           2000        0.00050000              0           1        85789721           NONE
5     QUANTITY                                29-03-16 22:08             10        0.10000000              0           1        85789721           NONE
6     DISPATCH_DATE                           29-03-16 22:08            124        0.00806452              0           1        85789721           NONE
7     RETURN_DATE                             29-03-16 22:08           4507        0.00022188       84059125           1         1730596           NONE
8     GIFT_WRAP                               29-03-16 22:08              6        0.16666667              0           1        85789721           NONE
9     CONDITION                               29-03-16 22:08              3        0.33333333              0           1        85789721           NONE
10    SUPPLIER_ID                             29-03-16 22:08            999        0.00100100              0           1        85789721           NONE
11    ESTIMATED_DELIVERY                      29-03-16 22:08           4507        0.00022188              0           1        85789721           NONE
==========================================================================================================================================================================
Index Information
==========================================================================================================================================================================
INDEX_NAME                 COLUMNS                                               ANALYZED           DIST_KEYS     DENSITY       NUM_ROWS     UNIQUE    VISIBLE    STATUS
==========================================================================================================================================================================
ITEM_ORDER_IX              ORDER_ID                                           29-03-16 22:08         28434432   0.0000000       82834901       NO        YES        OK
ITEM_PRODUCT_IX            PRODUCT_ID                                         29-03-16 22:08              999   0.0010010       79984685       NO         NO        OK
ORDER_ITEMS_PK             LINE_ITEM_ID ,ORDER_ID                             29-03-16 22:08         85615194   0.0000000       85615194      YES        YES        OK

sys@ora01 SQL> 

Veja que nesse momento, a tabela SOE.ORDER_ITEMS está com o InMemory desabilitado:

sys@ora01 SQL> select owner, table_name, inmemory from dba_tables where owner='SOE' and table_name='ORDER_ITEMS';

OWNER                     TABLE_NAME                     INMEMORY
------------------------- ------------------------------ --------
SOE                       ORDER_ITEMS                    DISABLED

1 row selected.

Vamos executar uma consulta de encontro a tabela e analisar os resultados. Veja que estou forçando a consulta a ser executada em serial e obtendo o máximo de estatísticas para análise, isso através dos hints NO_PARALLEL e GATHER_PLAN_STATISTICS respectivamente.

sys@ora01 SQL> SET TIMING ON
sys@ora01 SQL> SELECT /*+ monitor gather_plan_statistics no_parallel */ SUM(quantity) FROM soe.order_items WHERE product_id=:p;

SUM(QUANTITY)
-------------
      1376607

Elapsed: 00:00:43.51

1 row selected.

sys@ora01 SQL> -- Buscando o sqlid da query acima
sys@ora01 SQL> @lastsql

HASH_VALUE SQL_ID          CH#    PLAN_HASH HASH_HEX   SQL_TEXT
---------- ------------- ----- ------------ ---------- -----------------------------------------------------------------------------------------------------------------
3284254310 97h2yq31w3gm6     0   2407813087  c3c1be66  SELECT /*+ MONITOR GATHER_PLAN_STATISTICS NO_PARALLEL */ sum(QUANTITY) from  soe.order_items where PRODUCT_ID=:p

Vamos analisar agora, a consulta 97h2yq31w3gm6:

sys@ora01 SQL> SET HEADING OFF LINES 32767
sys@ora01 SQL> SELECT DBMS_SQLTUNE.REPORT_SQL_MONITOR(sql_id => '97h2yq31w3gm6', report_level=>'ALL', type => 'TEXT') as report FROM dual;

SQL Monitoring Report

SQL Text
------------------------------
SELECT /*+ monitor gather_plan_statistics no_parallel */ SUM(quantity) FROM soe.order_items WHERE product_id=:p

Global Information
------------------------------
 Status              :  DONE (ALL ROWS)
 SQL ID              :  97h2yq31w3gm6
 SQL Execution ID    :  16777216
 Duration            :  44s
 Module/Action       :  SQL*Plus/-
 Fetch Calls         :  1

Binds
========================================================================================================================
| Name | Position |  Type  |                                           Value                                           |
========================================================================================================================
| :P   |        1 | NUMBER | 509                                                                                       |
========================================================================================================================

Global Stats
================================================================
| Elapsed |   Cpu   |    IO    | Fetch | Buffer | Read | Read  |
| Time(s) | Time(s) | Waits(s) | Calls |  Gets  | Reqs | Bytes |
================================================================
|      44 |    4.92 |       39 |     1 |   251K | 250K |   2GB |
================================================================

SQL Plan Monitoring Details (Plan Hash Value=2407813087)
=================================================================================================================================================================================
| Id |               Operation                |      Name       |  Rows   | Cost |   Time    | Start  | Execs |   Rows   | Read | Read  | Activity |      Activity Detail       |
|    |                                        |                 | (Estim) |      | Active(s) | Active |       | (Actual) | Reqs | Bytes |   (%)    |        (# samples)         |
=================================================================================================================================================================================
|  0 | SELECT STATEMENT                       |                 |         |      |        39 |     +2 |     1 |        1 |      |       |          |                            |
|  1 |   SORT AGGREGATE                       |                 |       1 |      |        39 |     +2 |     1 |        1 |      |       |          |                            |
|  2 |    TABLE ACCESS BY INDEX ROWID BATCHED | ORDER_ITEMS     |   85876 |  697 |        40 |     +1 |     1 |     306K | 249K |   2GB |   100.00 | db file parallel read (40) |
|  3 |     INDEX RANGE SCAN                   | ITEM_PRODUCT_IX |   85876 |    2 |        39 |     +2 |     1 |     306K |  643 |   5MB |          |                            |
=================================================================================================================================================================================


1 row selected.

sys@ora01 SQL> SET HEADING ON

Temos aqui o plano da nossa consulta de encontra a tabela ORDER_ITEMS. Veja que a consulta levou cerca de 44s para ser processada, sendo que, 39s foram gastos em I/O e 5s em CPU. A leitura total em disco foi cerca de 2G.

A partir de agora, iniciaremos o nosso teste com o Oracle In-memory 12c. O objetivo aqui, é colocar a nossa tabela ORDER_ITEMS em modo In-Memory Column Store e realizar novamente a mesma consulta e obter algumas conclusões. O primeiro passo, é popular a coluna na memória:

sys@ora01 SQL> ALTER TABLE soe.order_items INMEMORY;

Table altered.

sys@ora01 SQL> ALTER SESSION SET "_inmemory_populate_wait"=TRUE;

Session altered.

sys@ora01 SQL> EXEC DBMS_INMEMORY.POPULATE('SOE','ORDER_ITEMS');

PL/SQL procedure successfully completed.

sys@ora01 SQL> COLUMN seg_inmem_size FORMAT 99,999,990.9 HEADING 'In-Memory|SIZE_MB'
sys@ora01 SQL> COLUMN seg_orig_size_megs FORMAT 99,999,990.9 HEADING 'ORIGINAL|SIZE_MB'
sys@ora01 SQL> COLUMN seg_megs_not_populated FORMAT 99,999,990.9 HEADING 'NOT POPULATE|SIZE_MB'
sys@ora01 SQL> COLUMN populate_status HEADING 'POPULATE|STATUS'
sys@ora01 SQL> SELECT
2          inst_id 
3          , v.owner
4          , v.segment_name
5          , v.populate_status
6          , v.inmemory_size/1024/1024 seg_inmem_size
7          , v.bytes/(1024*1024) seg_orig_size_megs
8          , v.bytes_not_populated/(1024*1024) seg_megs_not_populated
9          , v.inmemory_priority
10         , v.inmemory_compression 
11     FROM v$im_segments v 
12     WHERE UPPER(segment_name) LIKE UPPER(CASE WHEN INSTR('&1','.') > 0 THEN substr('&1',instr('&1','.')+1) ELSE '&1' END )
13     AND UPPER(owner) LIKE UPPER(CASE WHEN INSTR('&1','.') > 0 THEN SUBSTR('&1',1,instr('&1','.')-1) ELSE user END )
14   / 

                                                         POPULATE      In-Memory      ORIGINAL  NOT POPULATE   In-Memory      In-Memory
OWNER                     SEGMENT_NAME                   STATUS          SIZE_MB       SIZE_MB       SIZE_MB    PRIORITY      COMPRESSION
------------------------- ------------------------------ --------- ------------- -------------  -------------  --------- -----------------
SOE                       ORDER_ITEMS                    COMPLETED       3,554.1      12,398.0          0.0       NONE      FOR QUERY LOW

1 row selected.


Como mostra a view v$im_segments, veja que o status da nossa tabela está totalmente populada na área do InMemory, com um tamanho aproximadamente de 3500M.

Com a tabela na memória, iremos executar a mesma consulta e verificar os resultados, mas antes, vamos executar um flush no buffer cache/shared pool, para que os testes anteriores não sejam levados em consideração.

sys@ora01 SQL> ALTER SYSTEM FLUSH SHARED_POOL;

System altered.

sys@ora01 SQL> ALTER SYSTEM FLUSH BUFFER_CACHE;

System altered.

sys@ora01 SQL> SELECT /*+ monitor gather_plan_statistics no_parallel */ SUM(quantity) FROM soe.order_items WHERE product_id=:p;

SUM(QUANTITY)
-------------
      1376607

Elapsed: 00:00:43.03

1 row selected.

sys@ora01 SQL> @lastsql

HASH_VALUE SQL_ID          CH#    PLAN_HASH HASH_HEX   SQL_TEXT
---------- ------------- ----- ------------ ---------- -----------------------------------------------------------------------------------------------------------------
3284254310 97h2yq31w3gm6     0   2407813087  c3c1be66  SELECT /*+ monitor gather_plan_statistics no_parallel */ SUM(quantity) FROM soe.order_items WHERE product_id=:p

sys@ora01 SQL> SET HEADING OFF LINES 32767
sys@ora01 SQL> SELECT DBMS_SQLTUNE.REPORT_SQL_MONITOR(sql_id => '97h2yq31w3gm6', report_level=>'ALL', type => 'TEXT') as report FROM dual;


SQL Monitoring Report

SQL Text
------------------------------
SELECT /*+ monitor gather_plan_statistics no_parallel */ SUM(quantity) FROM soe.order_items WHERE product_id=:p

Global Information
------------------------------
 Status              :  DONE (ALL ROWS)
 SQL ID              :  97h2yq31w3gm6
 SQL Execution ID    :  16777216
 Duration            :  44s
 Module/Action       :  SQL*Plus/-
 Fetch Calls         :  1

Binds
========================================================================================================================
| Name | Position |  Type  |                                           Value                                           |
========================================================================================================================
| :P   |        1 | NUMBER | 509                                                                                       |
========================================================================================================================

Global Stats
================================================================
| Elapsed |   Cpu   |    IO    | Fetch | Buffer | Read | Read  |
| Time(s) | Time(s) | Waits(s) | Calls |  Gets  | Reqs | Bytes |
================================================================
|      44 |    4.92 |       39 |     1 |   251K | 250K |   2GB |
================================================================

SQL Plan Monitoring Details (Plan Hash Value=2407813087)
=================================================================================================================================================================================
| Id |               Operation                |      Name       |  Rows   | Cost |   Time    | Start  | Execs |   Rows   | Read | Read  | Activity |      Activity Detail       |
|    |                                        |                 | (Estim) |      | Active(s) | Active |       | (Actual) | Reqs | Bytes |   (%)    |        (# samples)         |
=================================================================================================================================================================================
|  0 | SELECT STATEMENT                       |                 |         |      |        39 |     +2 |     1 |        1 |      |       |          |                            |
|  1 |   SORT AGGREGATE                       |                 |       1 |      |        39 |     +2 |     1 |        1 |      |       |          |                            |
|  2 |    TABLE ACCESS BY INDEX ROWID BATCHED | ORDER_ITEMS     |   85876 |  697 |        40 |     +1 |     1 |     306K | 249K |   2GB |   100.00 | db file parallel read (40) |
|  3 |     INDEX RANGE SCAN                   | ITEM_PRODUCT_IX |   85876 |    2 |        39 |     +2 |     1 |     306K |  643 |   5MB |          |                            |
=================================================================================================================================================================================


1 row selected.

sys@ora01 SQL> SET HEADING ON

Nada mudou em relação a primeira execução. Veja que interessante, mesmo com a minha tabela totalmente carregada na memória via IMDB a quantidade de leitura física da primeira execução com a segunda foi exatamente a mesma. O tempo total da consulta também não mudou, levamos cerca de ~ 44s para retornar os dados.

Se a ORDER_ITEMS está agora totalmente disponível via InMemory Column Store, porque o Oracle está fazendo a mesma quantidade de leitura em disco? Ele não deveria buscar os dados em memória e evitar essa grande quantidade de leitura em disco?

Como regra geral (assim como acontece no SmartScan do Exadata), para que o otimizador do Oracle decida ir vi InMemory, um acesso “FULL SCAN” deve ser feito na tabela. Observe no plano de execução da consulta acima, que o caminho escolhido pelo Oracle é através do INDEX ITEM_PRODUCT_IX (via INDEX RANGE SCAN).

=================================================================================================================================================================================
| Id |               Operation                |      Name       |  Rows   | Cost |   Time    | Start  | Execs |   Rows   | Read | Read  | Activity |      Activity Detail       |
|    |                                        |                 | (Estim) |      | Active(s) | Active |       | (Actual) | Reqs | Bytes |   (%)    |        (# samples)         |
=================================================================================================================================================================================
|  2 |    TABLE ACCESS BY INDEX ROWID BATCHED | ORDER_ITEMS     |   85876 |  697 |        40 |     +1 |     1 |     306K | 249K |   2GB |   100.00 | db file parallel read (40) |
|  3 |     INDEX RANGE SCAN                   | ITEM_PRODUCT_IX |   85876 |    2 |        39 |     +2 |     1 |     306K |  643 

O Whitepaper do Oracle Database In-Memory 12c, é bem claro ao dizer que a busca dos dados via In-memory será feito apenas quando o acesso na tabela for via FULL SCAN. Assim jamais a nossa consulta acima irá consulta os dados presentes na nossa RAM, já que o otimizador está escolhendo o caminho através do index ITEM_PRODUCT_IX.

Podemos resolver essa situação adicionando o hint FULL na consulta, ou deixando o Index ITEM_PRODUCT_IX invisible. Veja só o resultado:

sys@ora01 SQL> alter index soe.ITEM_PRODUCT_IX invisible;

Index altered.

sys@ora01 SQL> SELECT /*+ MONITOR GATHER_PLAN_STATISTICS NO_PARALLEL */ sum(QUANTITY) from  soe.order_items where PRODUCT_ID=:p;

SUM(QUANTITY)
-------------
      1376607

Elapsed: 00:00:00.05

1 row selected.

sys@ora01 SQL> SET HEADING OFF LINES 32767
sys@ora01 SQL> SELECT DBMS_SQLTUNE.REPORT_SQL_MONITOR(sql_id => '97h2yq31w3gm6', report_level=>'ALL', type => 'TEXT') as report FROM dual;

SQL Monitoring Report

SQL Text
------------------------------
SELECT /*+ MONITOR GATHER_PLAN_STATISTICS NO_PARALLEL */ sum(QUANTITY) from soe.order_items where PRODUCT_ID=:p

Global Information
------------------------------
 Status              :  DONE (ALL ROWS)
 Instance ID         :  1
 Session             :  SYS (1150:44245)
 SQL ID              :  97h2yq31w3gm6
 SQL Execution ID    :  16777217
 Duration            :  .041563s
 Module/Action       :  SQL*Plus/-
 Service             :  SYS$USERS
 Program             :  sqlplus@Flavios-MacBook-Pro.local (TNS V1-V3)
 Fetch Calls         :  1

Binds
========================================================================================================================
| Name | Position |  Type  |                                           Value                                           |
========================================================================================================================
| :P   |        1 | NUMBER | 509                                                                                       |
========================================================================================================================

Global Stats
===========================================================================
| Elapsed |   Cpu   |    IO    |  Other   | Fetch | Buffer | Read | Read  |
| Time(s) | Time(s) | Waits(s) | Waits(s) | Calls |  Gets  | Reqs | Bytes |
===========================================================================
|    0.04 |    0.04 |     0.00 |     0.00 |     1 |    249 |   18 | 144KB |
===========================================================================

SQL Plan Monitoring Details (Plan Hash Value=3419397814)
=========================================================================================================================================================
| Id |           Operation           |    Name     |  Rows   | Cost |   Time    | Start  | Execs |   Rows   | Read | Read  | Activity | Activity Detail |
|    |                               |             | (Estim) |      | Active(s) | Active |       | (Actual) | Reqs | Bytes |   (%)    |   (# samples)   |
=========================================================================================================================================================
|  0 | SELECT STATEMENT              |             |         |      |         1 |     +0 |     1 |        1 |      |       |          |                 |
|  1 |   SORT AGGREGATE              |             |       1 |      |         1 |     +0 |     1 |        1 |      |       |          |                 |
|  2 |    TABLE ACCESS INMEMORY FULL | ORDER_ITEMS |   85876 | 7880 |         1 |     +0 |     1 |     306K |   12 | 98304 |          |                 |
=========================================================================================================================================================


1 row selected.

sys@ora01 SQL> 

Aqui podemos notar o poder do INMEMORY, observe o tempo, caiu de 44s para apenas 0.4s. Veja também que agora a operação de consulta não foi mais via INDEX RANGE SCAN e sim via TABLE ACCESS INMEMORY FULL, o que mostra que a busca dos dados foi exclusivamente na memória para a tabela ORDER_ITEMS. Outro ponto importante é a quantidade de leitura física que de 2G caiu para 144KB. O tempo 0.4s foi exclusivamente o tempo da CPU em processar os dados  (CPU Time(s)).

Chegamos aqui, com algumas conclusões:

  • Vou ter performance colocando todas as minhas tabelas em IMDB? É necessário testar, não tem outro caminho. Cada ambiente é única e existe muita variável no meio do caminho. Como os testes acima, mesmo ativando o IMDB, não vimos nenhuma melhora até analisar e corrigir.
  • Porque o Oracle decide um acesso via INDEX, sendo que meus dados estão na memória? Bom, isso vou explicar melhor em um próximo post, mas basicamente o Oracle considera o custo do INDEX menor, por isso acaba optando pela utilização do INDEX. Alguns parâmetros no banco também afetam essa decisão, vamos conferir isso melhor nos próximos posts.
  • Se o IMDB só funciona via FULL SCAN, devo deixar todos meus INDEXES invisíveis? NUNCA!!! Isso é um mito que surgiu com o Exadata. É importante lembra que tanto no IMDB como no Exadata, o INDEX não é um vilão. Um acesso via INDEX pode muitas vezes ser muito mais benéfico, já que o objetivo do INDEX é justamente economizar leitura em disco. A TI é um mundo lógico e deve ser sempre levado, como os gringos gostam de falar, com systematic approach. Não existe mágica. Nos próximos posts, vou mostrar melhor esse tema.
  • Vou precisar mudar minha aplicação para utilizar o IMDB? Como está na documentação Oracle, você não precisa mover uma vírgula da aplicação para utilizar o IMDB. Agora fazemos outra pergunta: Vou ter performance em todas as tabelas que coloquei no INMEMORY? Mais uma vez …. Depende! É necessário testar.
  • O IMDB realmente é performático? Sim, extremamente performático comparado com tudo que temos no mercado! Como disse no começo do post, não é necessário explicar a imensa diferença de performance da RAM contra o disco, todos já sabem. É necessário no entanto saber aproveitar e saber utilizar a feature da melhor forma. Como vimos nesse simples exemplo, uma consulta teste, caiu de 44s para 0.4s, e o mais importante, sem mudar uma vírgula na consulta.
  • Minha aplicação OLTP cheia de INDEX, vou ter algum ganho com o IMDB? Provavelmente. Mas uma vez: É necessário testar! Deve-se sempre avaliar, estatísticas, index, hints, etc …

Aguarde os próximos posts, tem muita coisa interessante sobre essa nova incrível feature do Oracle.

Até lá :)

 

Como configurar ASM DiskGroup para o uso do Exadata Storage Server
April 17, 2015

Para habilitar o processamento de dados via Smart Scan pelo Storage Server do Exadata, algumas definições no momento da criação do ASM Diskgroup devem ser consideradas:

  • compatible.rdbms = 11.2.0.0.0 (ou maior)
  • compatible.asm = 11.2.0.0.0 (ou maior)
  • cell.smart_scan_capable = TRUE

Além disso, a Oracle extremamente recomenda definir o atributo AU_SIZE do Diskgroup para 4MB, afim de otimizar o scans dos discos.

Aqui está um exemplo da criação do diskgroup:

SQL> CREATE DISKGROUP DATA NORMAL REDUNDANCY
2    DISK 'o/*/DATA*'
3    ATTRIBUTE 'compatible.rdbms' = '11.2.0.0.0',
4              'compatible.asm' = ''11.2.0.3',
5              'cell.smart_scan_capable' = 'TRUE',
6              'au_size' = '4M';

Diskgroup created.

SQL> CREATE DISKGROUP RECO EXTERNAL REDUNDANCY 
2    DISK 'o/*/RECO*'
3   ATTRIBUTE 'compatible.rdbms' = '11.2.0.0.0',
4             'compatible.asm' = ''11.2.0.3',
5             'cell.smart_scan_capable' = 'TRUE',
6             'au_size' = '4M';

Diskgroup created.

SQL> CREATE DISKGROUP DBFS_DG EXTERNAL REDUNDANCY 
2    DISK 'o/*/DBFS*'
3   ATTRIBUTE 'compatible.rdbms' = '11.2.0.0.0',
4             'compatible.asm' = ''11.2.0.3',
5             'cell.smart_scan_capable' = 'TRUE',
6             'au_size' = '4M';
/

Diskgroup created.

Obs: Não é necessário configurar os failgroup, por padrão no Exadata, cada Cell Storage Server se tornará um failgroup.

Para conferir os atributos do diskgroup que acabamos de criar, você pode consultar através da view V$ASM_ATTRIBUTE. Para facilitar, utilize o script asmattr.sql abaixo para realizar essa consulta:

-----------------------------------------------------------------------------------------------------------
-- Header:      asmattr.sql   20-out-2012.18:15   $   FSX Scripts - Flavio Soares X Scripts
--
-- Filename:    asmattr.sql
--
-- Version:     v1
--
-- Purpose:     Displays one row for each attribute defined in ASM Diskgroup.
--
-- Modified:
--              
--
-- Notes:       
--
-- Usage:       SQL> @asmattr % | <diskgroup_name> 
--
--
-- Others:      
--
-- Author:      Flavio Soares 
-- Copyright:   (c) Flavio Soares - http://flaviosoares.com - All rights reserved.
-----------------------------------------------------------------------------------------------------------

PROMPT Showing the ASM Diskgroup attributes ... DISKGROUP: &1 

COLUMN asmattr_diskgroup_name    HEADING DISKGROUP       FORMAT A30
COLUMN asmattr_attribute_name    HEADING ATTRIBUTE_NAME  FORMAT a60    
COLUMN asmattr_value             HEADING VALUE           FORMAT a25
COLUMN asmattr_group_number      HEADING GN#             FORMAT 9999

BREAK ON asmattr_diskgroup_name ON asmattr_group_number skip 1

SELECT 
        dg.group_number asmattr_group_number,
	dg.name    asmattr_diskgroup_name, 
	attr.name  asmattr_attribute_name, 
  CASE 
     WHEN attr.name = 'au_size' THEN attr.value/1048576 || 'MB' 
     ELSE attr.value 
  END asmattr_value
FROM v$asm_diskgroup dg, v$asm_attribute attr 
WHERE dg.group_number = attr.group_number (+)
AND dg.name LIKE UPPER(('&1'));

Veja o resultado abaixo da execução do script:

  

SQL> @asmattr %

GN# DISKGROUP                      ATTRIBUTE_NAME                                               VALUE
----- ------------------------------ ------------------------------------------------------------ -------------------------
    1 DATA                           disk_repair_time                                             3.6h
                                     au_size                                                      4MB
                                     sector_size                                                  512
                                     compatible.asm                                               11.2.0.0.0
                                     compatible.rdbms                                             11.2.0.0.0
                                     cell.smart_scan_capable                                      TRUE
                                     access_control.enabled                                       FALSE
                                     access_control.umask                                         066
                                     phys_meta_replicated                                         true
                                     failgroup_repair_time                                        24.0h
                                     thin_provisioned                                             FALSE
                                     content.type                                                 data
                                     content.check                                                FALSE
                                     template_version                                             186646528
                                     template.PARAMETERFILE.stripe                                0
                                     template.PARAMETERFILE.redundancy                            17
                                     template.PARAMETERFILE.primary_region                        0
                                     template.PARAMETERFILE.mirror_region                         0
                                     template.ASMPARAMETERFILE.stripe                             0
                                     template.ASMPARAMETERFILE.redundancy                         17
                                     template.ASMPARAMETERFILE.primary_region                     0
                                     template.ASMPARAMETERFILE.mirror_region                      0
                                     template.DUMPSET.stripe                                      0
                                     template.DUMPSET.redundancy                                  17
                                     template.DUMPSET.primary_region                              0
                                     template.DUMPSET.mirror_region                               0
                                     template.CONTROLFILE.stripe                                  1
                                     template.CONTROLFILE.redundancy                              17
                                     template.CONTROLFILE.primary_region                          0
                                     template.CONTROLFILE.mirror_region                           0
                                     template.FLASHFILE.stripe                                    0
                                     template.FLASHFILE.redundancy                                17
                                     template.FLASHFILE.primary_region                            0
                                     template.FLASHFILE.mirror_region                             0
                                     template.ARCHIVELOG.stripe                                   0
                                     template.ARCHIVELOG.redundancy                               17
                                     template.ARCHIVELOG.primary_region                           0
                                     template.ARCHIVELOG.mirror_region                            0
                                     template.ONLINELOG.stripe                                    0
                                     template.ONLINELOG.redundancy                                17
                                     template.ONLINELOG.primary_region                            0
                                     template.ONLINELOG.mirror_region                             0
                                     template.DATAFILE.stripe                                     0
                                     template.DATAFILE.redundancy                                 17
                                     template.DATAFILE.primary_region                             0
                                     template.DATAFILE.mirror_region                              0
                                     template.TEMPFILE.stripe                                     0
                                     template.TEMPFILE.redundancy                                 17
                                     template.TEMPFILE.primary_region                             0
                                     template.TEMPFILE.mirror_region                              0
                                     template.BACKUPSET.stripe                                    0
                                     template.BACKUPSET.redundancy                                17
                                     template.BACKUPSET.primary_region                            0
                                     template.BACKUPSET.mirror_region                             0
                                     template.AUTOBACKUP.stripe                                   0
                                     template.AUTOBACKUP.redundancy                               17
                                     template.AUTOBACKUP.primary_region                           0
                                     template.AUTOBACKUP.mirror_region                            0
                                     template.XTRANSPORT.stripe                                   0
                                     template.XTRANSPORT.redundancy                               17
                                     template.XTRANSPORT.primary_region                           0
                                     template.XTRANSPORT.mirror_region                            0
                                     template.CHANGETRACKING.stripe                               0
                                     template.CHANGETRACKING.redundancy                           17
                                     template.CHANGETRACKING.primary_region                       0
                                     template.CHANGETRACKING.mirror_region                        0
                                     template.FLASHBACK.stripe                                    0
                                     template.FLASHBACK.redundancy                                17
                                     template.FLASHBACK.primary_region                            0
                                     template.FLASHBACK.mirror_region                             0
                                     template.DATAGUARDCONFIG.stripe                              0
                                     template.DATAGUARDCONFIG.redundancy                          17
                                     template.DATAGUARDCONFIG.primary_region                      0
                                     template.DATAGUARDCONFIG.mirror_region                       0
                                     template.OCRFILE.stripe                                      0
                                     template.OCRFILE.redundancy                                  17
                                     template.OCRFILE.primary_region                              0
                                     template.OCRFILE.mirror_region                               0

    2 RECO                           disk_repair_time                                             3.6h
                                     au_size                                                      4MB
                                     sector_size                                                  512
                                     compatible.asm                                               11.2.0.0.0
                                     compatible.rdbms                                             11.2.0.0.0
                                     cell.smart_scan_capable                                      TRUE
                                     access_control.enabled                                       FALSE
                                     access_control.umask                                         066
                                     phys_meta_replicated                                         true
                                     failgroup_repair_time                                        24.0h
                                     thin_provisioned                                             FALSE
                                     content.type                                                 data
                                     content.check                                                FALSE
                                     template_version                                             186646528
                                     template.PARAMETERFILE.stripe                                0
                                     template.PARAMETERFILE.redundancy                            17
                                     template.PARAMETERFILE.primary_region                        0
                                     template.PARAMETERFILE.mirror_region                         0
                                     template.ASMPARAMETERFILE.stripe                             0
                                     template.ASMPARAMETERFILE.redundancy                         17
                                     template.ASMPARAMETERFILE.primary_region                     0
                                     template.ASMPARAMETERFILE.mirror_region                      0
                                     template.DUMPSET.stripe                                      0
                                     template.DUMPSET.redundancy                                  17
                                     template.DUMPSET.primary_region                              0
                                     template.DUMPSET.mirror_region                               0
                                     template.CONTROLFILE.stripe                                  1
                                     template.CONTROLFILE.redundancy                              17
                                     template.CONTROLFILE.primary_region                          0
                                     template.CONTROLFILE.mirror_region                           0
                                     template.FLASHFILE.stripe                                    0
                                     template.FLASHFILE.redundancy                                17
                                     template.FLASHFILE.primary_region                            0
                                     template.FLASHFILE.mirror_region                             0
                                     template.ARCHIVELOG.stripe                                   0
                                     template.ARCHIVELOG.redundancy                               17
                                     template.ARCHIVELOG.primary_region                           0
                                     template.ARCHIVELOG.mirror_region                            0
                                     template.ONLINELOG.stripe                                    0
                                     template.ONLINELOG.redundancy                                17
                                     template.ONLINELOG.primary_region                            0
                                     template.ONLINELOG.mirror_region                             0
                                     template.DATAFILE.stripe                                     0
                                     template.DATAFILE.redundancy                                 17
                                     template.DATAFILE.primary_region                             0
                                     template.DATAFILE.mirror_region                              0
                                     template.TEMPFILE.stripe                                     0
                                     template.TEMPFILE.redundancy                                 17
                                     template.TEMPFILE.primary_region                             0
                                     template.TEMPFILE.mirror_region                              0
                                     template.BACKUPSET.stripe                                    0
                                     template.BACKUPSET.redundancy                                17
                                     template.BACKUPSET.primary_region                            0
                                     template.BACKUPSET.mirror_region                             0
                                     template.AUTOBACKUP.stripe                                   0
                                     template.AUTOBACKUP.redundancy                               17
                                     template.AUTOBACKUP.primary_region                           0
                                     template.AUTOBACKUP.mirror_region                            0
                                     template.XTRANSPORT.stripe                                   0
                                     template.XTRANSPORT.redundancy                               17
                                     template.XTRANSPORT.primary_region                           0
                                     template.XTRANSPORT.mirror_region                            0
                                     template.CHANGETRACKING.stripe                               0
                                     template.CHANGETRACKING.redundancy                           17
                                     template.CHANGETRACKING.primary_region                       0
                                     template.CHANGETRACKING.mirror_region                        0
                                     template.FLASHBACK.stripe                                    0
                                     template.FLASHBACK.redundancy                                17
                                     template.FLASHBACK.primary_region                            0
                                     template.FLASHBACK.mirror_region                             0
                                     template.DATAGUARDCONFIG.stripe                              0
                                     template.DATAGUARDCONFIG.redundancy                          17
                                     template.DATAGUARDCONFIG.primary_region                      0
                                     template.DATAGUARDCONFIG.mirror_region                       0
                                     template.OCRFILE.stripe                                      0
                                     template.OCRFILE.redundancy                                  17
                                     template.OCRFILE.primary_region                              0
                                     template.OCRFILE.mirror_region                               0

    3 DBFS                           disk_repair_time                                             3.6h
                                     au_size                                                      4MB
                                     sector_size                                                  512
                                     compatible.asm                                               11.2.0.0.0
                                     compatible.rdbms                                             11.2.0.0.0
                                     cell.smart_scan_capable                                      TRUE
                                     access_control.enabled                                       FALSE
                                     access_control.umask                                         066
                                     phys_meta_replicated                                         true
                                     failgroup_repair_time                                        24.0h
                                     thin_provisioned                                             FALSE
                                     content.type                                                 data
                                     content.check                                                FALSE
                                     template_version                                             186646528
                                     template.PARAMETERFILE.stripe                                0
                                     template.PARAMETERFILE.redundancy                            17
                                     template.PARAMETERFILE.primary_region                        0
                                     template.PARAMETERFILE.mirror_region                         0
                                     template.ASMPARAMETERFILE.stripe                             0
                                     template.ASMPARAMETERFILE.redundancy                         17
                                     template.ASMPARAMETERFILE.primary_region                     0
                                     template.ASMPARAMETERFILE.mirror_region                      0
                                     template.DUMPSET.stripe                                      0
                                     template.DUMPSET.redundancy                                  17
                                     template.DUMPSET.primary_region                              0
                                     template.DUMPSET.mirror_region                               0
                                     template.CONTROLFILE.stripe                                  1
                                     template.CONTROLFILE.redundancy                              17
                                     template.CONTROLFILE.primary_region                          0
                                     template.CONTROLFILE.mirror_region                           0
                                     template.FLASHFILE.stripe                                    0
                                     template.FLASHFILE.redundancy                                17
                                     template.FLASHFILE.primary_region                            0
                                     template.FLASHFILE.mirror_region                             0
                                     template.ARCHIVELOG.stripe                                   0
                                     template.ARCHIVELOG.redundancy                               17
                                     template.ARCHIVELOG.primary_region                           0
                                     template.ARCHIVELOG.mirror_region                            0
                                     template.ONLINELOG.stripe                                    0
                                     template.ONLINELOG.redundancy                                17
                                     template.ONLINELOG.primary_region                            0
                                     template.ONLINELOG.mirror_region                             0
                                     template.DATAFILE.stripe                                     0
                                     template.DATAFILE.redundancy                                 17
                                     template.DATAFILE.primary_region                             0
                                     template.DATAFILE.mirror_region                              0
                                     template.TEMPFILE.stripe                                     0
                                     template.TEMPFILE.redundancy                                 17
                                     template.TEMPFILE.primary_region                             0
                                     template.TEMPFILE.mirror_region                              0
                                     template.BACKUPSET.stripe                                    0
                                     template.BACKUPSET.redundancy                                17
                                     template.BACKUPSET.primary_region                            0
                                     template.BACKUPSET.mirror_region                             0
                                     template.AUTOBACKUP.stripe                                   0
                                     template.AUTOBACKUP.redundancy                               17
                                     template.AUTOBACKUP.primary_region                           0
                                     template.AUTOBACKUP.mirror_region                            0
                                     template.XTRANSPORT.stripe                                   0
                                     template.XTRANSPORT.redundancy                               17
                                     template.XTRANSPORT.primary_region                           0
                                     template.XTRANSPORT.mirror_region                            0
                                     template.CHANGETRACKING.stripe                               0
                                     template.CHANGETRACKING.redundancy                           17
                                     template.CHANGETRACKING.primary_region                       0
                                     template.CHANGETRACKING.mirror_region                        0
                                     template.FLASHBACK.stripe                                    0
                                     template.FLASHBACK.redundancy                                17
                                     template.FLASHBACK.primary_region                            0
                                     template.FLASHBACK.mirror_region                             0
                                     template.DATAGUARDCONFIG.stripe                              0
                                     template.DATAGUARDCONFIG.redundancy                          17
                                     template.DATAGUARDCONFIG.primary_region                      0
                                     template.DATAGUARDCONFIG.mirror_region                       0
                                     template.OCRFILE.stripe                                      0
                                     template.OCRFILE.redundancy                                  17
                                     template.OCRFILE.primary_region                              0
                                     template.OCRFILE.mirror_region                               0

Uma configuração importante que muitas vezes é deixado de lado é o ASM ContentType do diskgroup. A partir da versão 11.2.0.3, conseguimos determinar a distância dos dados entre os “discos vizinhos” dentro do diskgroup.

Cada configuração do ContentType modifica no algoritmo ASM a medição adjacente onde o dados espelhado ficará, o resultado disso é que o conteúdo do diskgroup com diferentes ContentType irá distribuir desigualmente os extents (primário e secundário) nos discos disponível fazendo assim, a probabilidade de uma dupla falha de disco resultar em uma perca de dados.

Para ficar mais fácil de entender, veja os exemplos abaixo:

contetypeasm_1

Acima está o comportamento padrão do ASM. Os diskgroup FRA1 e DATA1 acima estão configurado com redundância NORMAL e não estão utilizando o content.type, sendo assim utilizam o algoritmo padrão de posicionamento das extensões secundárias (copias espelhadas), dessa forma ambos os diskgroup utilizam o mesmo algoritmo para determinar o posicionamento dos extents secundários.

O grande problema dessa regra, está quando acontece uma falha em dois discos simultaneamente.

Na figura que colocamos acima, estamos recebendo um erro ao mesmo tempo nos discos 3 e 4, onde justamente os extents primário “P vermelho” e seu e extent secundário “S vermelho” encontra-se. Com isso ambos os Diskgroup DATA1 e DATA2 sofrem perca de dados.

contetypeasm_1

Com a versão 11.2.0.3 temos agora o content.type onde podemos mudar esse comportamento, com ele definimos que diferentes ContentType são distribuídos em diferentes discos disponíveis para os extents secundários.

Agora temos outro exemplo para os Diskgroups DATA2 e FRA2. Eles também foram criados com redundância NORMAL, porém ambos com o ContentType definidos:

contetypeasm_1

Veja agora como os extents secundário ficaram espalhados perante aos seus extents primários. Com essa configuração, a falha vinda de múltiplos discos, somente o DATA2 resultará em perca de dados. Entretanto por causa da configuração do ContentType, o diskgroup FRA2 não sofrerá nenhuma perca de seus dados.

Com o ContentType definido, como uma falha dupla como essa, irá acarretar em perca dos datafiles do diskgroup DATA2, porém os archives logs necessários para recuperar esses arquivos, não foram perdidos e continuam disponível.

contetypeasm_1

Temos três configurações disponíveis para o ContentType do ASM:

– content.type=data
Utilizado por padrão para o diskgroup DATA, que geralmente é utilizado para armazenar os datafiles do banco de dados.

– content.type=recovery
Utilizado por padrão para o diskgroup RECO, que geralmente é utilizado para armazenar a FRA.

– content.type=system
Utilizado por padrão para o diskgroup DBFS_DG , que geralmente é utilizado apra armazenar os arquivos do Oracle RAC.

O ContentType pode ser definido no momento de criar o diskgroup, ou posteriormente através do ALTER DISKGROUP.

SQL> CREATE DISKGROUP DATA NORMAL REDUNDANCY
2    DISK 'o/*/DATA*'
3    ATTRIBUTE 'compatible.rdbms' = '11.2.0.0.0',
4              'compatible.asm' = ''11.2.0.3',
5              'cell.smart_scan_capable' = 'TRUE',
6              'content.type' = 'recovery',
7              'au_size' = '4M';

Ou podemos alterar o CONTENTTYPE via o ALTER DISKGROUP


SQL> ALTER DISKGROUP data SET ATTRIBUTE 'content.type' = 'data';

Assim seguindo as melhores recomendações, podemos alterar o ContentType dos diskgroup DATA, RECO e DBFS_DG criados acima, da seguinte maneira:

SQL> ALTER DISKGROUP DATA SET ATTRIBUTE 'content.type' = 'data';

Diskgroup altered.

SQL> ALTER DISKGROUP RECO SET ATTRIBUTE 'content.type' = 'recovery';

Diskgroup altered.

SQL> ALTER DISKGROUP DBFS_DG SET ATTRIBUTE 'content.type' = 'system';

Diskgroup altered.

Curso de Exadata em Phoenix Arizona com Hans Forbrich
October 10, 2014

Essa semana se resumiu em uma só palavra: Exadata!

Pude participar de um ótimo treinamento de Oracle Exadata Database Machine ministrado em Phoenix – Arizona pelo professor, Oracle ACE Director e grande DBA Hans Forbrich. Hans dispensa apresentações, muitos de vocês já o conhecem pelo seu blog.

O curso abordou 23 tópicos do Exadata em 5 dias, temas como Monitoramento, Performance, Arquitetura, SmartScan,  Patching e Updating foram alguns desses tópicos. Foi um curso muito puxado, devido a vasta quantidade de conteúdo abordado em tão poucos dias.

Mais mesmo assim, sobrou tempo para uma foto com o Hans :)

Hans Forbrich and Flavio Soares Exadata Training

Não poderia de deixar meu muito obrigado a Discover, por proporcionar essa oportunidade e principalmente por acreditar no meu trabalho.

Um caso de estudo do evento Direct Path Reads. Por que ele é tão importante para o Oracle Exadata?
May 29, 2014

Você DBA provavelmente já deve ter ouvido falar do Oracle Smart Scan. Pois bem, o Smart Scan realmente é um dos segredos por trás da extrema velocidade de processamento das instruções dentro do Oracle Exadata Machine. Existe também o conceito de offloading dos dados dentro da arquitetura do Exadata, que refere ao fato do processamento dos dados ser feito a nível da camada de storage (storage layer) e não mais dentro da camada de banco de dados (database layer). O Smart Scan por outro lado é mais focado a nível de SQL e não de dados como o Offloading, mais como podemos ver nos documentos e manuais, a Oracle acabou que juntando esses dois conceitos e chamando apenas de “Smart Scan”.

Apesar de toda velocidade de processamento que a máquina Exadata possuí, ela não seria o que é sem a capacidade de realização de Offloading e Smart Scan. Sem essas features, o Exadata seria apenas mais uma máquina de alto poder de processamento, porém sem grande inteligência de manipulação dos dados … e como vemos, é essa inteligência que faz toda a diferença.

Mais afinal, o que o “Direct Path Reads” tem haver com o Offloading de Dados e o Exadata Smart Scan? A resposta para essa pergunta é simples: O offloading e/ou Smart Scan não acontecerá, caso sua instrução não utilize o Direct Path Reads.

Dois pré-requisitos básicos, são necessários para o Offloading/Smart Scan:

1. Obviamente, realizar a instrução em um storage Exadata.
2. Realizar o “Direct Path Reads” na sua instrução.

É claro que isso envolve algumas restrições, mais basicamente tendo esses requisitos, a sua consulta irá acabar realizando o Smart Scan.


O que é Direct Path Reads?

O Direct Path Reads foi criado pela Oracle para ignorar o Buffer Cache. O Buffer Cache como você já deve saber, é uma área da SGA destinada a manter os blocos recentes lidos, assim todos os usuários conectados na instância é capaz de ler e compartilhar desse cache sem a necessidade de ler esses blocos novamente do disco. Isso é um excelente ganho de performance, já que o evitamos o acesso a disco sempre que uma instrução é realizada. A Oracle fez um excelente trabalho ao longo dos anos, aperfeiçoando cada vez mais esse cache através dos algoritmos LRU e MRU, veja mais aqui: http://docs.oracle.com/cd/B28359_01/server.111/b28318/memory.htm#CNCPT1224

Realmente existe muito mais vantagem do que desvantagem em utilizar o Buffer Cache, porém a grande desvantagem, por ser um processo automático de gerenciamento de Buffer, o Oracle acaba por colocar “sujeiras” dentro desse cache, removendo dados que inclusive eram mais acessados pelas demais sessões. Imagina esse caso por exemplo, um relatório que é disparado uma única vez no mês para cálculos de fechamento que movimenta uma enorme quantidade de dados, por qual razão você gostaria de colocar todos esses dados gerados do relatório dentro do buffer cache do seu banco, sendo que essa instrução será executada apenas uma única vez e não será compartilhado com outras sessões dentro do banco. Inclusive, todo esses dados gerados, pode ser maior do que o próprio buffer cache, causando assim um extremo overhead em remover dados mais acessados e adicionar dados que nunca irá ser acessado. Será um tremendo trabalho em alocar, desalocar e realocar tudo novamente.

Foi aí que surgiu o Direct Path Reads.

O mecanismo de Direct Path Reads já está disponível no kernel do Oracle há muito tempo. Ele foi inicialmente implementado para trabalhar exclusivamente com os processos slaves sempre que uma instrução era disparada via paralelismo. Como os processos paralelos, como via de regra, devem ler grandes quantidades de dados o Direct Path Reads entrou na jogada para ignora completamente o mecanismo padrão do buffer. Foi decidido a partir daí, que os blocos deveriam ser armazenados em suas próprias memórias (PGA) e não mais na SGA quando se utiliza-se a consulta via DPR.

De acordo com o metalink, a partir do Oracle 11gR2, o kernel foi modificado para decidir realizar mais Direct Path Reads do que na versão 10g, ou seja na versão 10g o serial table scans tem muito mais chance de ser realizado no buffer compartilhado (scattered reads) do que na própria memória do processo (direct path reads).


Como identifico o evento Direct Path Reads?

Existem várias formas de se identificar o evento “Direct Path Reads”, uma delas é através das views de wait’s do Oracle, como por exemplo a v$session_wait.

A view v$session_wait mostra sempre o atual evento de espera ocorrido pela sessão. Usando o SQL abaixo, podemos identificar através da coluna EVENT, a utilização do evento “direct path read” para a consulta em questão (sql_id).

SELECT s.sid, w.state, w.event, s.sql_id, s.sql_child_number, 
	w.seq#, w.seconds_in_wait, w.p1text||'= '||w.p1 p1,
	w.p2text||'= '||w.p2 p2, w.p3text||'= '||w.p3 p3
FROM v$session s, v$session_wait w 
WHERE w.sid = s.sid AND w.sid = "";

Vamos a uma prova de teste. A partir de agora, vou utilizar incessantemente o parâmetro oculto chamado “_serial_direct_read” para forçar a utilização do direct reads. Vou falar mais desse parâmetro mais a frente, o importante agora é saber que através dele podemos forçar a utilização do evento Direct Path Reads.

Os testes serão feito através da tabela fss.hsk1. Essa tabela, nada mais é do que uma tabela de teste que sempre utilizo em meus testes com Oracle. A tabela é criada dentro do owner FSS e contém cerca de 4G (você pode mudar o tamanho da tabela criada, alterando a quantidade de linhas inseridas na tabela, veja os comentários dentro do script). Através dos links abaixo, você poderá utilizar também a mesma tabela que vou demonstrar os testes a seguir.

Criação do usuário FSS: fss_user.sql
Criação das tabelas do usuário FSS: fss_create_tables.sql

Lembrando também, que todos esses testes foram feitos em um Oracle 11.2.0.3.

Identificando o uso do Direct Read, através da view de espera v$session_wait

Vamos ao teste que interessa. Com a sessão 1, iremos executar a seguinte instrução SQL na tabela fss.hsk1. Primeiro vamos definir o parâmetro oculto _serial_direct_read para ALWAYS, dessa forma eu estou forçando com que todas as minhas consultas sejam executadas via “Direct Path Reads”

SQL> ALTER SESSION SET "_serial_direct_read"=ALWAYS;

Session altered.

SQL> select avg(length(col1) + length(col2)) from fss.hsk1 where col3 > 1;

Rapidamente, enquanto executa a consulta acima, com a sessão 2, vamos ver através da v$session_wait que o evento de espera atual é o “direct path”:

--> SESSÃO 2

SQL> SELECT 
1  s.sid, w.state, w.event, s.sql_id, s.sql_child_number, w.seq#, w.seconds_in_wait, 
2  w.p1text||'= '||w.p1 p1, w.p2text||'= '||w.p2 p2, w.p3text||'= '||w.p3 p3
3  FROM v$session s, v$session_wait w
4  WHERE w.sid = s.sid AND w.sid=152;
		
     SID STATE               EVENT                        SQL_ID          CH#      SEQ# SECONDS_IN_WAIT P1                      P2                 P3
-------- ------------------- ---------------------------- ------------- ----- --------- --------------- ----------------------- ------------------ -----------------
     152 WAITED SHORT TIME   direct path read             36b84f5s2yj4a     0     36081               0 file number= 5          first dba= 3307    block cnt= 1

1 row selected.

SQL> /

     SID STATE               EVENT                        SQL_ID          CH#      SEQ# SECONDS_IN_WAIT P1                      P2                 P3
-------- ------------------- ---------------------------- ------------- ----- --------- --------------- ----------------------- ------------------ -----------------
     152 WAITED SHORT TIME   direct path read             74kfrv5xqpbxf     0     52652               0 file number= 4          first dba= 157056  block cnt= 128

1 row selected.

SQL> /

     SID STATE               EVENT                        SQL_ID          CH#      SEQ# SECONDS_IN_WAIT P1                      P2                 P3
-------- ------------------- ---------------------------- ------------- ----- --------- --------------- ----------------------- ------------------ -----------------
     152 WAITED SHORT TIME   direct path read             74kfrv5xqpbxf     0     56786               0 file number= 4          first dba= 63360   block cnt= 128

Vamos agora voltar para a sessão 1, e mudar o parâmetro oculto “_serial_direct_read” para NEVER, e executar a mesma consulta, observe agora que não vamos mais ter o evento direct path read, mais sim o db file scattered read, ou seja a nossa consulta estará alocando todo os dados para a SGA:

--> SESSÃO 1

SQL> ALTER SESSION SET "_serial_direct_read"=NEVER;

Session altered.

SQL> select avg(length(col1) + length(col2)) from fss.hsk1 where col3 > 1;
--> SESSÃO 2

SQL> SELECT 
1  s.sid, w.state, w.event, s.sql_id, s.sql_child_number, w.seq#, w.seconds_in_wait, 
2  w.p1text||'= '||w.p1 p1, w.p2text||'= '||w.p2 p2, w.p3text||'= '||w.p3 p3
3  FROM v$session s, v$session_wait w
4  WHERE w.sid = s.sid AND w.sid=152;

     SID STATE               EVENT                     SQL_ID          CH#      SEQ# SECONDS_IN_WAIT P1          P2               P3
-------- ------------------- ------------------------- ------------- ----- --------- --------------- ----------- ---------------- --------------
     152 WAITED SHORT TIME   db file scattered read    74kfrv5xqpbxf     0     23902               0 file#= 4    block#= 37124    blocks= 128


1 row selected.

SQL> /

     SID STATE               EVENT                     SQL_ID          CH#      SEQ# SECONDS_IN_WAIT P1          P2               P3
-------- ------------------- ------------------------- ------------- ----- --------- --------------- ----------- ---------------- --------------
     152 WAITED SHORT TIME   db file scattered read    74kfrv5xqpbxf     0     26483               0 file#= 4    block#= 26500    blocks= 128


1 row selected.

SQL> /

     SID STATE               EVENT                     SQL_ID          CH#      SEQ# SECONDS_IN_WAIT P1          P2               P3
-------- ------------------- ------------------------- ------------- ----- --------- --------------- ----------- ---------------- --------------
     152 WAITED SHORT TIME   db file scattered read    74kfrv5xqpbxf     0     26977               0 file#= 4    block#= 80004    blocks= 128

Identificando o uso do Direct Read, através das views de estatísticas

Podemos também identificar o evento direct path através das views v$sesstat e v$mystat, no caso a v$sesstat representa todas as estatísticas de todas as sessões do banco, já a v$mystat representa apenas as estatísticas da minha atual sessão. Diferente da view v$session_wait que mostra o estado atual da sessão, as views de estatísticas são acumulativas para todas as estatísticas. Nesse caso, a estatística chamada “table scans (direct read)” representa a quantidade que o evento direct path foi utilizado dentre todas as instrução realizadas para a mesma sessão.

Pelo motivo das views de estatísticas v$sesstat e v$mystat serem acumulativas, precisamos realizar o antes e o depois e termos um delta para a comparação se aquela sessão sofreu ou não um aumento das estatísticas.

Podemos realizar o teste da seguinte maneira:

SQL> col value format 999999999999999
SQL> SELECT s.name, m.value
  2  FROM v$mystat m, v$statname s
  3  WHERE m.statistic# = s.statistic#
  4  AND s.name = 'table scans (direct read)';

NAME                                                          VALUE
-------------------------------------------------- ----------------
table scans (direct read)                                         0

1 row selected.

Veja acima, que a minha sessão está com a estatística “table scans (direct read)” com o valor zerado. Isso mostra que a sessão até o momento não realizou nenhuma leitura de bloco através do evento Direct Path Reads.

Vamos agora, alterar o parâmetro oculto “_SERIAL_DIRECT_READ” para NEVER, afim de forçar a leitura via FULL TABLE SCANS na tabela fss.hsk1 sem a utilização do DPR.

SQL> ALTER SESSION SET "_serial_direct_read"=NEVER;

Session altered.

SQL> select avg(length(col1)) from fss.hsk1 where col3 > 1;

AVG(LENGTH(COL1))
-----------------
       175.015666

1 row selected.

Após realizar a consulta, vamos novamente realizar a consulta para verificar o valor da estatística “table scans (direct read)”.

SQL> SELECT s.name, m.value
  2  FROM v$mystat m, v$statname s
  3  WHERE m.statistic# = s.statistic#
  4  AND s.name = 'table scans (direct read)';

NAME                                                          VALUE
-------------------------------------------------- ----------------
table scans (direct read)                                         0

1 row selected.

Veja que a estatística continua com o valor zero. Vamos executar a mesma instrução SQL, porém agora forçando o uso do Direct Reads.

SQL> ALTER SESSION SET "_serial_direct_read"=ALWAYS;

Session altered.

SQL> select avg(length(col1)) from fss.hsk1 where col3 > 1;

AVG(LENGTH(COL1))
-----------------
       175.015666

1 row selected.

Com a execução acima, voltemos a verificar o valor da estatística “table scans (direct read)”.

SQL> SELECT s.name, m.value
  2  FROM v$mystat m, v$statname s
  3  WHERE m.statistic# = s.statistic#
  4  AND s.name = 'table scans (direct read)';

NAME                                                          VALUE
-------------------------------------------------- ----------------
table scans (direct read)                                         1

Como você pode ver, a estatística passo de 0 para 1, isso aconteceu porque a instrução foi executada via Direct Path Reads. Para cada consulta então que realizo o evento de Direct Reads, o valor de 1 é adicionado a estatística “table scans (direct read)”. O mesmo procedimento é válido também para a estatística “index fast full scans (direct read)”

SQL> select avg(length(col1)) from fss.hsk1 where col3 > 1;

AVG(LENGTH(COL1))
-----------------
       175.015666

1 row selected.

Veja novamente que vamos ter a estatística “table scans (direct read)” com o valor agora de 2.

SQL> SELECT s.name, m.value
  2  FROM v$mystat m, v$statname s
  3  WHERE m.statistic# = s.statistic#
  4  AND s.name = 'table scans (direct read)';

NAME                                                          VALUE
-------------------------------------------------- ----------------
table scans (direct read)                                         2

Identificando o uso do Direct Read, através do evento de 10046

Um método muito rápido de identificar também se sua consulta está utilizando “db file scattered read” ao invés de “direct path reads” é através do evento 10046.

Setando esse evento para a sessão, e observando o trace, podemos identificar facilmente se a consulta está sendo feita via “db file scattered read” ou “direct path reads”.

Veja o exemplo abaixo:

SQL> ALTER SESSION SET EVENTS '10046 trace name context forever, level 12'

Session altered.

Com a sessão alterada para o evento 10046, vamos identificar o arquivo de trace da sessão:

SQL> SELECT tracefile 
2    FROM v$process WHERE addr = (
3        SELECT paddr FROM v$session 
4        WHERE sid = (SELECT sid FROM v$mystat WHERE rownum < 2)
5    );

TRACEFILE
----------------------------------------------------------------------------
/u01/app/oracle/diag/rdbms/dbtst/dbtst/trace/dbtst_ora_60173.trc

Com os mesmos testes realizados acima, onde forçamos a utilização do Direct Reads, seu arquivo de trace irá se parecer como a listagem abaixo para a instrução com o _serial_direct_read para ALWAYS.

WAIT #140675437128128: nam='direct path read' ela= 780 file number=6 first dba=42624 block cnt=128 obj#=76837 tim=1397656466688788
WAIT #140675437128128: nam='direct path read' ela= 824 file number=6 first dba=42752 block cnt=128 obj#=76837 tim=1397656466692249
WAIT #140675437128128: nam='direct path read' ela= 831 file number=6 first dba=42880 block cnt=128 obj#=76837 tim=1397656466696735
WAIT #140675437128128: nam='direct path read' ela= 757 file number=6 first dba=43008 block cnt=128 obj#=76837 tim=1397656466701094
WAIT #140675437128128: nam='direct path read' ela= 765 file number=6 first dba=43136 block cnt=128 obj#=76837 tim=1397656466705783
WAIT #140675437128128: nam='direct path read' ela= 574 file number=6 first dba=43268 block cnt=124 obj#=76837 tim=1397656466708691
WAIT #140675437128128: nam='direct path read' ela= 590 file number=6 first dba=43392 block cnt=128 obj#=76837 tim=1397656466711190
WAIT #140675437128128: nam='direct path read' ela= 568 file number=6 first dba=43520 block cnt=128 obj#=76837 tim=1397656466713200
WAIT #140675437128128: nam='direct path read' ela= 610 file number=6 first dba=43648 block cnt=128 obj#=76837 tim=1397656466715460
WAIT #140675437128128: nam='direct path read' ela= 562 file number=6 first dba=43776 block cnt=128 obj#=76837 tim=1397656466718398
WAIT #140675437128128: nam='direct path read' ela= 524 file number=6 first dba=43904 block cnt=128 obj#=76837 tim=1397656466720576
WAIT #140675437128128: nam='direct path read' ela= 489 file number=6 first dba=44032 block cnt=128 obj#=76837 tim=1397656466723296
WAIT #140675437128128: nam='direct path read' ela= 792 file number=6 first dba=44160 block cnt=128 obj#=76837 tim=1397656466726823
WAIT #140675437128128: nam='direct path read' ela= 726 file number=6 first dba=44292 block cnt=124 obj#=76837 tim=1397656466731733
WAIT #140675437128128: nam='direct path read' ela= 782 file number=6 first dba=44416 block cnt=128 obj#=76837 tim=1397656466736128
WAIT #140675437128128: nam='direct path read' ela= 786 file number=6 first dba=44544 block cnt=128 obj#=76837 tim=1397656466740659
WAIT #140675437128128: nam='direct path read' ela= 621 file number=6 first dba=44672 block cnt=128 obj#=76837 tim=1397656466743702
WAIT #140675437128128: nam='direct path read' ela= 808 file number=6 first dba=44800 block cnt=128 obj#=76837 tim=1397656466747454
WAIT #140675437128128: nam='direct path read' ela= 568 file number=6 first dba=44928 block cnt=128 obj#=76837 tim=1397656466751477
WAIT #140675437128128: nam='direct path read' ela= 553 file number=6 first dba=45056 block cnt=128 obj#=76837 tim=1397656466753675
WAIT #140675437128128: nam='direct path read' ela= 579 file number=6 first dba=45184 block cnt=128 obj#=76837 tim=1397656466758527
WAIT #140675437128128: nam='direct path read' ela= 610 file number=6 first dba=45316 block cnt=124 obj#=76837 tim=1397656466761760
WAIT #140675437128128: nam='direct path read' ela= 768 file number=6 first dba=45440 block cnt=128 obj#=76837 tim=1397656466765429
WAIT #140675437128128: nam='direct path read' ela= 751 file number=6 first dba=45568 block cnt=128 obj#=76837 tim=1397656466768958
WAIT #140675437128128: nam='direct path read' ela= 757 file number=6 first dba=45696 block cnt=128 obj#=76837 tim=1397656466772449
FETCH #140675437128128:c=342947,e=1194482,p=45285,cr=45289,cu=0,mis=0,r=1,dep=0,og=1,plh=3450470040,tim=1397656466776035
STAT #140675437128128 id=1 cnt=1 pid=0 pos=1 obj=0 op='SORT AGGREGATE (cr=45289 pr=45285 pw=0 time=1194103 us)'
STAT #140675437128128 id=2 cnt=799999 pid=1 pos=1 obj=76837 op='TABLE ACCESS FULL HSK1 (cr=45289 pr=45285 pw=0 time=1363830 us cost=12370 size=145598544 card=799992)'
WAIT #140675437128128: nam='SQL*Net message from client' ela= 1640 driver id=1413697536 #bytes=1 p3=0 obj#=76837 tim=1397656466782990
FETCH #140675437128128:c=0,e=223,p=0,cr=0,cu=0,mis=0,r=0,dep=0,og=0,plh=3450470040,tim=1397656466785440
WAIT #140675437128128: nam='SQL*Net message to client' ela= 4 driver id=1413697536 #bytes=1 p3=0 obj#=76837 tim=1397656466788033

Agora a mesma execução sem a utilização do Direct Reads, deverá se parecer com o seguinte trace:

(Observe a grande quantidade de "db file scattered read")

WAIT #140675437130048: nam='db file scattered read' ela= 774 file#=6 block#=43396 blocks=128 obj#=76837 tim=1397656143526663
WAIT #140675437130048: nam='db file scattered read' ela= 476 file#=6 block#=43524 blocks=128 obj#=76837 tim=1397656143536192
WAIT #140675437130048: nam='db file scattered read' ela= 618 file#=6 block#=43652 blocks=128 obj#=76837 tim=1397656143545942
WAIT #140675437130048: nam='db file scattered read' ela= 569 file#=6 block#=43780 blocks=128 obj#=76837 tim=1397656143555649
WAIT #140675437130048: nam='db file scattered read' ela= 504 file#=6 block#=43908 blocks=128 obj#=76837 tim=1397656143564865
WAIT #140675437130048: nam='db file scattered read' ela= 817 file#=6 block#=44036 blocks=128 obj#=76837 tim=1397656143576862
WAIT #140675437130048: nam='db file scattered read' ela= 500 file#=6 block#=44164 blocks=124 obj#=76837 tim=1397656143589249
WAIT #140675437130048: nam='db file scattered read' ela= 721 file#=6 block#=44292 blocks=128 obj#=76837 tim=1397656143602144
WAIT #140675437130048: nam='db file scattered read' ela= 597 file#=6 block#=44420 blocks=128 obj#=76837 tim=1397656143612393
WAIT #140675437130048: nam='db file scattered read' ela= 710 file#=6 block#=44548 blocks=128 obj#=76837 tim=1397656143622807
WAIT #140675437130048: nam='db file scattered read' ela= 790 file#=6 block#=44676 blocks=128 obj#=76837 tim=1397656143631916
WAIT #140675437130048: nam='db file scattered read' ela= 518 file#=6 block#=44804 blocks=128 obj#=76837 tim=1397656143640901
WAIT #140675437130048: nam='db file scattered read' ela= 450 file#=6 block#=44932 blocks=128 obj#=76837 tim=1397656143649894
WAIT #140675437130048: nam='db file scattered read' ela= 998 file#=6 block#=45060 blocks=128 obj#=76837 tim=1397656143661462
WAIT #140675437130048: nam='db file scattered read' ela= 428 file#=6 block#=45188 blocks=124 obj#=76837 tim=1397656143671014
WAIT #140675437130048: nam='db file scattered read' ela= 537 file#=6 block#=45316 blocks=128 obj#=76837 tim=1397656143679979
WAIT #140675437130048: nam='db file scattered read' ela= 809 file#=6 block#=45444 blocks=128 obj#=76837 tim=1397656143705089
WAIT #140675437130048: nam='db file scattered read' ela= 743 file#=6 block#=45572 blocks=128 obj#=76837 tim=1397656143714724
WAIT #140675437130048: nam='db file scattered read' ela= 742 file#=6 block#=45700 blocks=124 obj#=76837 tim=1397656143752173
FETCH #140675437130048:c=13221989,e=13812881,p=45286,cr=45298,cu=0,mis=0,r=1,dep=0,og=1,plh=3450470040,tim=1397656143762546
STAT #140675437130048 id=1 cnt=1 pid=0 pos=1 obj=0 op='SORT AGGREGATE (cr=45298 pr=45286 pw=0 time=13812802 us)'
STAT #140675437130048 id=2 cnt=799999 pid=1 pos=1 obj=76837 op='TABLE ACCESS FULL HSK1 (cr=45298 pr=45286 pw=0 time=7547357 us cost=12370 size=145598544 card=799992)'
WAIT #140675437130048: nam='SQL*Net message from client' ela= 1056 driver id=1413697536 #bytes=1 p3=0 obj#=76837 tim=1397656143767562
FETCH #140675437130048:c=0,e=566,p=0,cr=0,cu=0,mis=0,r=0,dep=0,og=0,plh=3450470040,tim=1397656143768778
WAIT #140675437130048: nam='SQL*Net message to client' ela= 4 driver id=1413697536 #bytes=1 p3=0 obj#=76837 tim=1397656143770042

Identificando o uso do Direct Read, via Oracle Internals (apenas para Oracle Geek guys : )

O evento Direct Path Reads é realizado através da função do sistema operacional chamada kcbldrget, que significa Kernel Block Direct Read Get.

Para identificar o uso do Direct Path Reads, basta identificar se a função kcbldrget foi disparada do processo do sistema operacional. Isso é possível através do comando pstack do Linux. Com esse comando, podemos identificar stack trace (pila do trace) da execução do processo, ou seja, todo os caminhos via chamadas de SO que o processo passou.

Através do SPID, podemos executar o seguinte procedimento após a execução do mesmo SQL com o parâmetro oculto "_serial_direct_read" para ALWAYS, forçando assim a execução via DPR. No momento da execução, conectado no sistema operacional (no meu caso o Linux), realizamos o comando pstack apontando para o SPID da SESSÃO B, que no caso é o número 50834.

[root@oralnx001 ~]# pstack 50834
#0  0x0000003f1960ee33 in __pread_nocancel () from /lib64/libpthread.so.0
#1  0x00000000093521fb in skgfqio ()
#2  0x0000000009222e03 in ksfd_skgfqio ()
#3  0x0000000009222b68 in ksfdgo ()
#4  0x000000000234e30e in ksfdaio ()
#5  0x00000000021ef424 in kcflbi ()
#6  0x0000000000ebc90a in kcbldio ()
#7  0x0000000000ebba84 in kcblrs ()
#8  0x0000000000ebb165 in kcblgt ()
#9  0x0000000000eb9941 in kcbldrget ()
#10 0x000000000907b554 in kcbgtcr ()
#11 0x000000000905ff29 in ktrget3 ()
#12 0x000000000905f784 in ktrget2 ()
#13 0x0000000009016ead in kdst_fetch ()
#14 0x0000000000c87f89 in kdstf00000010000kmP ()
#15 0x0000000008ffc6e8 in kdsttgr ()
#16 0x0000000009245970 in qertbFetch ()
#17 0x000000000926cc1f in qergsFetch ()
#18 0x0000000009136e83 in opifch2 ()
#19 0x00000000091404e8 in opiefn0 ()
#20 0x000000000914dfc4 in opipls ()
#21 0x000000000913d4d4 in opiodr ()
#22 0x00000000091e7043 in rpidrus ()
#23 0x0000000009354764 in skgmstack ()
#24 0x00000000091e8b5e in rpiswu2 ()
#25 0x00000000091e8188 in rpidrv ()
#26 0x00000000091d14d1 in psddr0 ()
#27 0x00000000091d10e7 in psdnal ()
#28 0x0000000003736b52 in pevm_EXIM ()
#29 0x000000000372831b in pfrinstr_EXIM ()
#30 0x00000000093eae35 in pfrrun_no_tool ()
#31 0x00000000093e9509 in pfrrun ()
#32 0x00000000093f0b61 in plsql_run ()
#33 0x000000000371cb6b in peicnt ()
#34 0x0000000002fa18b1 in kkxexe ()
#35 0x00000000091450f9 in opiexe ()
#36 0x0000000001b5cb07 in kpoal8 ()
#37 0x000000000913d4d4 in opiodr ()
#38 0x00000000092e02d6 in ttcpip ()
#39 0x00000000017ece01 in opitsk ()
#40 0x00000000017f19fa in opiino ()
#41 0x000000000913d4d4 in opiodr ()
#42 0x00000000017e8d3c in opidrv ()
#43 0x0000000001de40cb in sou2o ()
#44 0x0000000000a0b0c1 in opimai_real ()
#45 0x0000000001dea03c in ssthrdmain ()
#46 0x0000000000a0b02d in main ()

Esse monte de código acima, representa cada chamada de sistema operacional feita pelo processo em execução do SPID 50834. Como você pode ver na linha em negrito, temos uma chamada para o sistema operacional para a função kcbldrget, que significa que a instrução executada por esse processo utilizou o método Direct Reads :)

Condições para se utilizar o Direct Path Reads

Como mencionei acima, a partir do Oracle 11g é muito mais provável que sua consulta utilize o direct path reads, porém existe maneiras de "tentar" identificar se sua consulta irá ou não, utilizar automaticamente o evento.

Além dos processos parallel slaves que são sempre executados via direct path reads, para instruções não paralelas elas funcionam em certas condições. O calculo é baseado em diversos fatores como a quantidade de blocos do objeto e o tamanho do buffer. Existe ainda o parâmetro oculto _SMALL_TABLE_THRESHOLD que determina a quantidade mínima de blocos que uma tabela deve ter para a utilização do DPR. O valor default desse parâmetro é 2680, o que significa que caso uma tabela tenha a quantidade de blocos maior que 2680, o seu full table scan será mais favorável a utilizar direct path reads.

Veja um exemplo:

SQL> show parameter _small_table_threshold

NAME                           VALUE
------------------------------ -------
_small_table_threshold         2680

Acima como se pode ver, o parâmetro oculto "_SMALL_TABLE_THRESHOLD" está definido para o valor default de 2680 blocos. Vou agora, criar uma tabela buscando todos os dados da view dba_objects.

SQL> create table t as select * from dba_objects;

Table created.

SQL> select blocks from dba_segments where segment_name='T';

    BLOCKS
----------
      1152

Observe que a nossa tabela ficou com 1152 blocos, bem abaixo do valor do parâmetro _small_table_threshold. Vamos executar um FULL TABLE SCAN de encontro a tabela e verificar se foi realizado automaticamente o direct path reads de encontro a tabela.

SQL> select s.name, m.value 
2    from v$statname s, v$mystat m 
3    where m.statistic#=s.statistic# 
4    and s.name = 'table scans (direct read)';

NAME                                                    VALUE
-------------------------------------------------- ----------
table scans (direct read)                                   0

1 rows selected.

SQL> select count(*) from t;

  COUNT(*)
----------
     75214

1 row selected.

SQL> select 
2    s.name, m.value 
3    from v$statname s, v$mystat m 
4    where m.statistic#=s.statistic# 
5    and s.name = 'table scans (direct read)';

NAME                                                    VALUE
-------------------------------------------------- ----------
table scans (direct read)                                   0

1 rows selected.

Veja acima, que a estatística table scans (direct read) não foi alterado. Vamos aumentar a quantidade de blocos da tabela e realizar o mesmo teste.

SQL> insert into t (select * from t);

75214 rows created.

SQL> insert into t (select * from t);

150428 rows created.

SQL> commit;

Commit complete.

SQL> select blocks from dba_segments where segment_name='T';

    BLOCKS
----------
      4352

1 row selected.

Agora sim temos blocos acima da quantidade necessária especificada pelo parâmetro _small_table_threshold. Antes de fazer o teste, vamos limpar a área de memória do Oracle para que o teste anterior não interfira nesse novo.

SQL> ALTER SYSTEM FLUSH BUFFER_CACHE;

System altered.

SQL> ALTER SYSTEM FLUSH SHARED_POOL;

System altered.

Feito a limpeza, vamos checar novamente a mesma consulta:

SQL> select count(*) from t;

  COUNT(*)
----------
    300856

1 row selected.

SQL> select 
2      s.name, m.value 
3      from v$statname s, v$mystat m 
4      where m.statistic#=s.statistic# 
5      and s.name = 'table scans (direct read)';

NAME                                                    VALUE
-------------------------------------------------- ----------
table scans (direct read)                                   1

1 row selected.

Agora sim a nossa consulta foi realizada via direct read.

Um outra ponto muito importante para o direct reads, é que ele apenas funciona quando um full scan acontece, ou seja, a função "direct path reads" (kcbldrget) somente é chamada após um full scans. Note que o termo full scans representa os termos TABLE ACCESS FULL e INDEX FAST FULL SCAN no seu plano de execução. Dessa forma, pelo simples fato de uma operação em sua consulta a uma tabela for do tipo UNIQUE SCAN, o Direct Path Reads irá acontecer.

Processos Parallel e o Direct Path Reads

Os processos paralelos são outro ponto importante, como comentei acima, não importa que tipo de processo parallel você tem utilizado (AUTO DOP, IN MEMORY PARALELL, QUEUEING PARALLEL, etc ..) ou o tipo de Degree, a sua consulta sempre que utilizar a operação FULL SCANS ela irá ser feita via Direct Path Reads.

Veja no exemplo abaixo, que mesmo definindo o parâmetro "_serial_direct_read" para "never" vamos ter nossa consulta paralela utilizando o direct reads:

SQL> ALTER SESSION SET "_serial_direct_read"=never;

Session altered.

SQL> select 
2    s.name, m.value 
3    from v$statname s, v$mystat m 
4    where m.statistic#=s.statistic#  
5    and s.name = 'table scans (direct read)';

NAME                                                    VALUE
-------------------------------------------------- ----------
table scans (direct read)                          0

1 row selected.

SQL> select count(*) from t;

  COUNT(*)
----------
    300856


1 row selected.

SQL> select 
2    s.name, m.value 
3    from v$statname s, v$mystat m 
4    where m.statistic#=s.statistic#  
5    and s.name = 'table scans (direct read)';

NAME                                                  VALUE
-------------------------------------------------- --------
table scans (direct read)                                 0

1 row selected.

SQL> alter table t parallel 2;

Table altered.

SQL> select count(*) from t;

  COUNT(*)
----------
    300856

1 row selected.

SQL> select 
2    s.name, m.value 
3    from v$statname s, v$mystat m 
4    where m.statistic#=s.statistic#  
5    and s.name = 'table scans (direct read)';

NAME                                                  VALUE
-------------------------------------------------- --------
table scans (direct read)                                26


1 row selected.

Ou veja, processos parallel ignoram completamente o parâmetro _serial_direct_read.


Um pouco sobre o parâmetro _serial_direct_read

Você já deve ter entendido bem a utilização do parâmetro oculto _serial_direct_read. Ele força ou ignora a utilização do "Direct Path Reads". Vale a pena lembrar que por se tratar de um parâmetro oculto, não é nem um pouco legal você definir em seu ambiente de produção sem antes consultar a Oracle.

O parâmetro _serial_direct_read ele possuiu esses valores a partir do Oracle 11g:

1 ALWAYS
2 AUTO
3 NEVER
4 TRUE
5 FALSE

Para cada um deles ele trata de um modo diferente a instrução via "Direct Path Reads". O modo default dele é AUTO, o que significa que ele será automático, seguindo toda aquela regra que já expliquei sobre a quantidade e blocos e vários outros fatores.

Através do suporte da Oracle do documento "Exadata Smartscan Is Not Being Used On Insert As Select (Doc ID 1348116.1)", a Oracle descreve um problema em que o Smartscan não acontece devida a não execução da instrução via "Direct Path Reads" (um dos caso mais comum de falta de performance do Exadata). Na nota ele informa o uso do parâmetro _serial_direct_read para TRUE como a resolução do problema.

....

Por hoje é isso, espero que tenha consigo demonstrar a importante do Direct Path Reads para o Oracle. Para os próximos posts, quero mostrar um pouco mais da utilização do Direct Path Reads junto com as features do Exadata (Storage Index, Predicate Filtering, Column Projection, etc ...). Um abraço e até lá :)

Exadata Write-Back Flash Cache
February 25, 2014

A feature Write-Back Flash Cache vem através da tecnologia Exadata Smart Flash Cache do Exadata. Com o Write-Back Flash Cache é possível utilizar o Exadata Smart Flash Cache também para realizar o cache das escritas realizadas no bloco do banco de dados.

Principalmente para grandes escalas de bancos OLTP ou cargas Batch’s, o Write-Back torna o Smart Flash Cache do Exadata muito mais atrativo, pois elimina qualquer gargalo de disco existente passando diretamente o I/O para a PCI flash. Para se ter uma ideia de como é rápido essa tecnologia, utilizando um single full rack Exadata Database Machine X4-2, ele ultrapassa 1.960.00 escritas I/O por segundos levando sem consideração um bloco de 8K, e ele é totalmente automático e transparente e lhe dá algumas opções de configuração.

O Write-Back também está disponível para as versões X2, porém a versão mínima do Oracle Exadata Storage Server Software deve ser 11.2.3.2.1 e certifique-se que tanto o software de grid infrastructure and database homes estão no patch 11.2.0.3.9 ou maior.

A pergunta que fica é: Devo habilitar o write flash cache no meu Exadata? Bom, por incrível que pareça, o write-back não vem habilitado por default no Exadata. Após rodar o exaconf se você conectar nos seus cell’s você vai notar que o Smart Flash Cache não está em modo Write-Back. A Oracle literalmente deixa a seu critério: habilitar ou não habilitar. Minha opinião é que essa feature, assim como algumas outras, deveriam ser quase que um pré-requisitos de qualquer configuração, devida as vantagens delas oferecidas, é quase que o mesmo caso do parâmetro oculto _serial_direct_read no Exadata … aguarde o próximo post :) … De qualquer maneira, essa feature é interessante caso você tenha uma intensa escrita em disco e/ou se você encontra significantes eventos do tipo “free buffers waits” em seu AWR.

Para você determinar se a sua celula está em modo WriteBack execute o seguinte comando:

Onde:
flashCacheMode: WriteBack —> seu write back flash cache está habilitado
flashCacheMode: WriteThrough —> seu write back flash cache não está habilitado

No exemplo abaixo as 3 células do Exadata ex01dev2550, estão com o flashCacheMode em modo WriteThrough.

[root@ex01dev2550 ~ ]# dcli -l root -g /opt/oracle.SupportTools/onecommand/cell_group cellcli -e "list cell detail | grep flashCacheMode"
ex01celd2550: flashCacheMode:            writethrough
ex01celd2550: flashCacheMode:            writethrough
ex01celd2550: flashCacheMode:            writethrough

Para habilitar o write back é necessário mudar o flashCacheMode de cada célula do seu Exadata. No MOS (My Oracle Support: http://support.oracle.com) a Oracle disponibiliza um script chamado de setWBFC.sh para a mudança do tipo do Flash Cache do seu Exadata. Porém isso pode ser facilmente realizar de forma manual.

A maneira que vou mostrar aqui é utilizando o ROLLING método, ou seja, não causa parada no seu ambiente. O segredo de utilizar o modo ROLLING é que você deve executar os passos abaixo em uma célula por vez.

Tenho as seguintes células: ex01celd2550, ex02celd2550 e ex03celd2550.

Vou iniciar então, com a cell ex01celd2550 e depois seguir com as outras.

O primeiro passo é remover todos os discos do tipo flashcache mode na célula ex01celd2550.

[root@ex01celd2550 ~]# cellcli -e drop flashcache
Flash cache ex01celd2550_FLASHCACHE successfully dropped

Agora, vamos checar se o ASM vai conseguir gerenciar os discos dessa celula, caso eles fiquem OFFLINE. O seguinte comando deve retornar ‘Yes’ para os griddisks:

[root@ex01celd2550 ~]# cellcli -e list griddisk attributes name,asmmodestatus,asmdeactivationoutcome
         DATA_CD_00_ex01celd2550    ONLINE  Yes
         DATA_CD_01_ex01celd2550    ONLINE  Yes
         DATA_CD_02_ex01celd2550    ONLINE  Yes
         DATA_CD_03_ex01celd2550    ONLINE  Yes
         DATA_CD_04_ex01celd2550    ONLINE  Yes
         DATA_CD_05_ex01celd2550    ONLINE  Yes
         DATA_CD_06_ex01celd2550    ONLINE  Yes
         DATA_CD_07_ex01celd2550    ONLINE  Yes
         DATA_CD_08_ex01celd2550    ONLINE  Yes
         DATA_CD_09_ex01celd2550    ONLINE  Yes
         DATA_CD_10_ex01celd2550    ONLINE  Yes
         DATA_CD_11_ex01celd2550    ONLINE  Yes
         SYSTEMDG_CD_02_ex01celd2550      ONLINE  Yes
         SYSTEMDG_CD_03_ex01celd2550      ONLINE  Yes
         SYSTEMDG_CD_04_ex01celd2550      ONLINE  Yes
         SYSTEMDG_CD_05_ex01celd2550      ONLINE  Yes
         SYSTEMDG_CD_06_ex01celd2550      ONLINE  Yes
         SYSTEMDG_CD_07_ex01celd2550      ONLINE  Yes
         SYSTEMDG_CD_08_ex01celd2550      ONLINE  Yes
         SYSTEMDG_CD_09_ex01celd2550      ONLINE  Yes
         SYSTEMDG_CD_10_ex01celd2550      ONLINE  Yes
         SYSTEMDG_CD_11_ex01celd2550      ONLINE  Yes
         RECO_CD_00_ex01celd2550    ONLINE  Yes
         RECO_CD_01_ex01celd2550    ONLINE  Yes
         RECO_CD_02_ex01celd2550    ONLINE  Yes
         RECO_CD_03_ex01celd2550    ONLINE  Yes
         RECO_CD_04_ex01celd2550    ONLINE  Yes
         RECO_CD_05_ex01celd2550    ONLINE  Yes
         RECO_CD_06_ex01celd2550    ONLINE  Yes
         RECO_CD_07_ex01celd2550    ONLINE  Yes
         RECO_CD_08_ex01celd2550    ONLINE  Yes
         RECO_CD_09_ex01celd2550    ONLINE  Yes
         RECO_CD_10_ex01celd2550    ONLINE  Yes
         RECO_CD_11_ex01celd2550    ONLINE  Yes

Com o ASM garantindo que ficará tudo bem, vamos inativar todos os gridisks dessa célula:

[root@ex01celd2550 ~]# cellcli -e alter griddisk all inactive
GridDisk DATA_CD_00_ex01celd2550 successfully altered
GridDisk DATA_CD_01_ex01celd2550 successfully altered
GridDisk DATA_CD_02_ex01celd2550 successfully altered
GridDisk DATA_CD_03_ex01celd2550 successfully altered
GridDisk DATA_CD_04_ex01celd2550 successfully altered
GridDisk DATA_CD_05_ex01celd2550 successfully altered
GridDisk DATA_CD_06_ex01celd2550 successfully altered
GridDisk DATA_CD_07_ex01celd2550 successfully altered
GridDisk DATA_CD_08_ex01celd2550 successfully altered
GridDisk DATA_CD_09_ex01celd2550 successfully altered
GridDisk DATA_CD_10_ex01celd2550 successfully altered
GridDisk DATA_CD_11_ex01celd2550 successfully altered
GridDisk SYSTEMDG_CD_02_ex01celd2550 successfully altered
GridDisk SYSTEMDG_CD_03_ex01celd2550 successfully altered
GridDisk SYSTEMDG_CD_04_ex01celd2550 successfully altered
GridDisk SYSTEMDG_CD_05_ex01celd2550 successfully altered
GridDisk SYSTEMDG_CD_06_ex01celd2550 successfully altered
GridDisk SYSTEMDG_CD_07_ex01celd2550 successfully altered
GridDisk SYSTEMDG_CD_08_ex01celd2550 successfully altered
GridDisk SYSTEMDG_CD_09_ex01celd2550 successfully altered
GridDisk SYSTEMDG_CD_10_ex01celd2550 successfully altered
GridDisk SYSTEMDG_CD_11_ex01celd2550 successfully altered
GridDisk RECO_CD_00_ex01celd2550 successfully altered
GridDisk RECO_CD_01_ex01celd2550 successfully altered
GridDisk RECO_CD_02_ex01celd2550 successfully altered
GridDisk RECO_CD_03_ex01celd2550 successfully altered
GridDisk RECO_CD_04_ex01celd2550 successfully altered
GridDisk RECO_CD_05_ex01celd2550 successfully altered
GridDisk RECO_CD_06_ex01celd2550 successfully altered
GridDisk RECO_CD_07_ex01celd2550 successfully altered
GridDisk RECO_CD_08_ex01celd2550 successfully altered
GridDisk RECO_CD_09_ex01celd2550 successfully altered
GridDisk RECO_CD_10_ex01celd2550 successfully altered
GridDisk RECO_CD_11_ex01celd2550 successfully altered

Agora vamos realizar o Shut down do serviço cellsrv dentro da célula ex01celd2500

[root@ex01celd2550 ~]# cellcli -e alter cell shutdown services cellsrv

Stopping CELLSRV services...
The SHUTDOWN of CELLSRV services was successful.

Com tudo baixado na célula, vamos mudar o flashcache mode para “writeback”, usando o seguinte comando

[root@ex01celd2550 ~]# cellcli -e "alter cell flashCacheMode=writeback"
Cell ex01celd2550 successfully altered

Feito isso, vamos reiniciar novamente o serviço cellsrv e reativar todos os griddisks dentro da célula

[root@ex01celd2550 ~]# cellcli -e alter cell startup services cellsrv
Starting CELLSRV services...
The STARTUP of CELLSRV services was successful.

[root@ex01celd2550 ~]# cellcli -e alter griddisk all active
GridDisk DATA_CD_00_ex01celd2550 successfully altered
GridDisk DATA_CD_01_ex01celd2550 successfully altered
GridDisk DATA_CD_02_ex01celd2550 successfully altered
GridDisk DATA_CD_03_ex01celd2550 successfully altered
GridDisk DATA_CD_04_ex01celd2550 successfully altered
GridDisk DATA_CD_05_ex01celd2550 successfully altered
GridDisk DATA_CD_06_ex01celd2550 successfully altered
GridDisk DATA_CD_07_ex01celd2550 successfully altered
GridDisk DATA_CD_08_ex01celd2550 successfully altered
GridDisk DATA_CD_09_ex01celd2550 successfully altered
GridDisk DATA_CD_10_ex01celd2550 successfully altered
GridDisk DATA_CD_11_ex01celd2550 successfully altered
GridDisk SYSTEMDG_CD_02_ex01celd2550 successfully altered
GridDisk SYSTEMDG_CD_03_ex01celd2550 successfully altered
GridDisk SYSTEMDG_CD_04_ex01celd2550 successfully altered
GridDisk SYSTEMDG_CD_05_ex01celd2550 successfully altered
GridDisk SYSTEMDG_CD_06_ex01celd2550 successfully altered
GridDisk SYSTEMDG_CD_07_ex01celd2550 successfully altered
GridDisk SYSTEMDG_CD_08_ex01celd2550 successfully altered
GridDisk SYSTEMDG_CD_09_ex01celd2550 successfully altered
GridDisk SYSTEMDG_CD_10_ex01celd2550 successfully altered
GridDisk SYSTEMDG_CD_11_ex01celd2550 successfully altered
GridDisk RECO_CD_00_ex01celd2550 successfully altered
GridDisk RECO_CD_01_ex01celd2550 successfully altered
GridDisk RECO_CD_02_ex01celd2550 successfully altered
GridDisk RECO_CD_03_ex01celd2550 successfully altered
GridDisk RECO_CD_04_ex01celd2550 successfully altered
GridDisk RECO_CD_05_ex01celd2550 successfully altered
GridDisk RECO_CD_06_ex01celd2550 successfully altered
GridDisk RECO_CD_07_ex01celd2550 successfully altered
GridDisk RECO_CD_08_ex01celd2550 successfully altered
GridDisk RECO_CD_09_ex01celd2550 successfully altered
GridDisk RECO_CD_10_ex01celd2550 successfully altered
GridDisk RECO_CD_11_ex01celd2550 successfully altered

Com o comando de reativar os gridisks executamos, vamos ter que esperar realizar a sincronia da célula novamente, que pode ser feito utilizando o comando abaixo. Observer que alguns discos ainda estão OFFLINE e outros estão em modo “SYNCING”, vamos ter que esperar todos os discos ficarem ONLINE. O tempo para finalizar vai depender da quantidade de dados que você tem em disco e o tempo que você deixou o os discos inativos. Geralmente esse passo é rápido.

[root@ex01celd2550 ~]# cellcli -e list griddisk attributes name, asmmodestatus
         DATA_CD_00_ex01celd2550    SYNCING
         DATA_CD_01_ex01celd2550    SYNCING
         DATA_CD_02_ex01celd2550    SYNCING
         DATA_CD_03_ex01celd2550    SYNCING
         DATA_CD_04_ex01celd2550    SYNCING
         DATA_CD_05_ex01celd2550    SYNCING
         DATA_CD_06_ex01celd2550    SYNCING
         DATA_CD_07_ex01celd2550    SYNCING
         DATA_CD_08_ex01celd2550    SYNCING
         DATA_CD_09_ex01celd2550    SYNCING
         DATA_CD_10_ex01celd2550    SYNCING
         DATA_CD_11_ex01celd2550    SYNCING
         SYSTEMDG_CD_02_ex01celd2550      ONLINE
         SYSTEMDG_CD_03_ex01celd2550      ONLINE
         SYSTEMDG_CD_04_ex01celd2550      ONLINE
         SYSTEMDG_CD_05_ex01celd2550      ONLINE
         SYSTEMDG_CD_06_ex01celd2550      ONLINE
         SYSTEMDG_CD_07_ex01celd2550      ONLINE
         SYSTEMDG_CD_08_ex01celd2550      ONLINE
         SYSTEMDG_CD_09_ex01celd2550      ONLINE
         SYSTEMDG_CD_10_ex01celd2550      ONLINE
         SYSTEMDG_CD_11_ex01celd2550      ONLINE
         RECO_CD_00_ex01celd2550    OFFLINE
         RECO_CD_01_ex01celd2550    OFFLINE
         RECO_CD_02_ex01celd2550    OFFLINE
         RECO_CD_03_ex01celd2550    OFFLINE
         RECO_CD_04_ex01celd2550    OFFLINE
         RECO_CD_05_ex01celd2550    OFFLINE
         RECO_CD_06_ex01celd2550    OFFLINE
         RECO_CD_07_ex01celd2550    OFFLINE
         RECO_CD_08_ex01celd2550    OFFLINE
         RECO_CD_09_ex01celd2550    OFFLINE
         RECO_CD_10_ex01celd2550    OFFLINE
         RECO_CD_11_ex01celd2550    OFFLINE
[root@ex01celd2550 ~]# cellcli -e list griddisk attributes name, asmmodestatus
         DATA_CD_00_ex01celd2550    ONLINE
         DATA_CD_01_ex01celd2550    ONLINE
         DATA_CD_02_ex01celd2550    ONLINE
         DATA_CD_03_ex01celd2550    ONLINE
         DATA_CD_04_ex01celd2550    ONLINE
         DATA_CD_05_ex01celd2550    ONLINE
         DATA_CD_06_ex01celd2550    ONLINE
         DATA_CD_07_ex01celd2550    ONLINE
         DATA_CD_08_ex01celd2550    ONLINE
         DATA_CD_09_ex01celd2550    ONLINE
         DATA_CD_10_ex01celd2550    ONLINE
         DATA_CD_11_ex01celd2550    ONLINE
         SYSTEMDG_CD_02_ex01celd2550      ONLINE
         SYSTEMDG_CD_03_ex01celd2550      ONLINE
         SYSTEMDG_CD_04_ex01celd2550      ONLINE
         SYSTEMDG_CD_05_ex01celd2550      ONLINE
         SYSTEMDG_CD_06_ex01celd2550      ONLINE
         SYSTEMDG_CD_07_ex01celd2550      ONLINE
         SYSTEMDG_CD_08_ex01celd2550      ONLINE
         SYSTEMDG_CD_09_ex01celd2550      ONLINE
         SYSTEMDG_CD_10_ex01celd2550      ONLINE
         SYSTEMDG_CD_11_ex01celd2550      ONLINE
         RECO_CD_00_ex01celd2550    ONLINE
         RECO_CD_01_ex01celd2550    ONLINE
         RECO_CD_02_ex01celd2550    ONLINE
         RECO_CD_03_ex01celd2550    ONLINE
         RECO_CD_04_ex01celd2550    ONLINE
         RECO_CD_05_ex01celd2550    ONLINE
         RECO_CD_06_ex01celd2550    ONLINE
         RECO_CD_07_ex01celd2550    ONLINE
         RECO_CD_08_ex01celd2550    ONLINE
         RECO_CD_09_ex01celd2550    ONLINE
         RECO_CD_10_ex01celd2550    ONLINE
         RECO_CD_11_ex01celd2550    ONLINE

Com todos os discos ONLINE, vamos recriar novamente os FLASHCACHE griddisks, porém agora com o modo writeback habilitado.

[root@ex01celd2550 ~]# cellcli -e create flashcache all
Flash cache ex01celd2550_FLASHCACHE successfully created

Observe que agora a célula ex01celd2550 está em modo write back.

[root@ex01celd2550 ~]# cellcli -e list cell detail | grep flashCacheMode
         flashCacheMode:         writeback

O caminho agora é repetir esses passos na próximas células. Lembrando apenas que antes de deixar uma cell server offline, sempre garanta que o asmdeactivationoutcome mostre como YES, como fizemos acima com o comando:

# cellcli -e list griddisk attributes name,asmmodestatus,asmdeactivationoutcome

Agora é testar e verificar a diferença :)

Você irá conseguir melhores resultados já mudando a sua tabela para o flash cache utilizando o comando “alter table xxx storage (cell_flash_cache keep)”;

Espero que tenha ajudado,

Forte abraço.

Pedindo ajuda ao Oracle Exadata
June 27, 2012

Guarde em mente, se você quer mesmo aprender Oracle Exadata você tem que saber uma coisa: Administrar o Exadata Storage Server, a grande diferença entre administrar um ambiente Exadata e não Exadata é a necessidade de controlar o Storage Server.

Quase todas as ferramentas da Oracle que conheço são intuitivas, você acaba aprendendo com elas, o que não é diferente com o CellCli uma ferramenta command line utilizada para configurar, monitorar, manter, visualizar o Exadata Storage Cell (uma célula do Exadata Storage Server). Ferramenta está que somente é disponível quando estamos conectados direto no servidor Exadata, caso faça necessário realizar a conexão fora do Storage Server é necessário então o uso do DCli.

Uma vez estando conectado no servidor Exadata, basta executar o comando cellcli para iniciar a configuração Storage Server:

# cellcli 
CellCLI: Release 11.2.2.1.0 - Production on Tue Jun 26 17:38:49 PDT 2012

Copyright (c) 2007, 2009, Oracle.  All rights reserved.
Cell Efficiency Ratio: 1

CellCLI>

Como eu mencionei no parágrafo anterior, o cellcli é uma ferramente simples e que nos permite um alto nível de configuração. Nada melhor do que pedir uma ajuda para para começar:

CellCLI> help

 HELP [topic]
   Available Topics:
        ALTER
        ALTER ALERTHISTORY
        ALTER CELL
        ALTER CELLDISK
        ALTER GRIDDISK
        ALTER IORMPLAN
        ALTER LUN
        ALTER PHYSICALDISK
        ALTER QUARANTINE
        ALTER THRESHOLD
        ASSIGN KEY
        CALIBRATE
        CREATE
        CREATE CELL
        CREATE CELLDISK
        CREATE FLASHCACHE
        CREATE GRIDDISK
        CREATE KEY
        CREATE QUARANTINE
        CREATE THRESHOLD
        DESCRIBE
        DROP
        DROP ALERTHISTORY
        DROP CELL
        DROP CELLDISK
        DROP FLASHCACHE
        DROP GRIDDISK
        DROP QUARANTINE
        DROP THRESHOLD
        EXPORT CELLDISK
        IMPORT CELLDISK
        LIST
        LIST ACTIVEREQUEST
        LIST ALERTDEFINITION
        LIST ALERTHISTORY
        LIST CELL
        LIST CELLDISK
        LIST FLASHCACHE
        LIST FLASHCACHECONTENT
        LIST GRIDDISK
        LIST IORMPLAN
        LIST KEY
        LIST LUN
        LIST METRICCURRENT
        LIST METRICDEFINITION
        LIST METRICHISTORY
        LIST PHYSICALDISK
        LIST QUARANTINE
        LIST THRESHOLD
        SET
        SPOOL
        START

Veja que em apenas um comando é mostrado todas as formas possíveis de configuração que o cellcli possui. Mas podemos melhorar isso, quero saber por exemplo as possibilidades do comando list, veja a simplicidade:

CellCLI> help list

  Enter HELP LIST  for specific help syntax.
    :  {ACTIVEREQUEST | ALERTHISTORY | ALERTDEFINITION | CELL 
                     | CELLDISK | FLASHCACHE | FLASHCACHECONTENT | GRIDDISK
                     | IORMPLAN | KEY | LUN 
                     | METRICCURRENT | METRICDEFINITION | METRICHISTORY 
                     | PHYSICALDISK | QUARANTINE | THRESHOLD }

As possibilidades estão aumento, veja acima que com o comando list é possível descobrir a quantidade dos celldisk, a quantidade e status de cada um dos griddisk, saber todas as LUNs criadas no Storage e por ai vai … No exemplo abaixo vemos todos os griddisk do ambiente:

CellCLI> list griddisk
	 data_AA_01_cell	 active
	 data_AA_02_cell	 active
	 data_AA_03_cell	 active
	 data_AA_04_cell	 active
	 data_AA_05_cell	 active
	 data_AA_06_cell	 active
	 data_BB_00_cell    	 active
	 data_BB_01_cell    	 active
	 data_BB_02_cell    	 active
	 data_BB_03_cell    	 active

E podemos tirar muito mais do comando help, quero saber agora mais opções da listagem do griddisk:

CellCLI> help list griddisk

  Usage: LIST GRIDDISK [ | ] [] [DETAIL] 

  Purpose: Displays specified attributes for grid disks.

  Arguments:
    :  The name of the grid disk to be displayed.
    :  an expression which determines which grid disks should
                be displayed.
    : The attributes that are to be displayed.
                      ATTRIBUTES {ALL | attr1 [, attr2]... }

  Options:
    [DETAIL]: Formats the display as an attribute on each line, with
              an attribute descriptor preceding each value.

  Examples:
    LIST GRIDDISK where size > 100M
    LIST GRIDDISK gd1 DETAIL

Descobrimos acima, que podemos saber mais detalhes do griddisk se colocarmos a opção DETAIL no final do comando. Vamos tentar:

CellCLI> list griddisk data_CD_disk01_cell detail
	 name:              	 data_CD_disk01_cell
	 availableTo:       	 
	 cellDisk:          	 AA_01_cell
	 comment:           	 
	 creationTime:      	 2012-11-21T12:06:11-44:00
	 diskType:          	 HardDisk
	 errorCount:        	 0
	 id:                	 0000001a-a1ee-0b2g-0000-000000000000
	 offset:            	 48T
	 size:              	 448T
	 status:            	 active

Também é possível, de acordo com a saída do comando help, colocar filtros na pesquisa do comando list. No caso abaixo quero descobrir quais os griddisk maiores que 500 G.

CellCLI> list griddisk where size > 500G
	 data_AA_01_cell	 active
	 data_AA_02_cell	 active
	 data_BB_00_cell    	 active
	 data_BB_01_cell    	 active

Tudo isso feito simplesmente a partir do comando help, com um simples comando, podemos descobrir “n” possibilidades reais.

Em breve mais post sobre Exadata, conceitos e aplicações na prática !

Dúvidas? Comentem!
No que puder, terei prazer em ajudar :)

Um abraço a todos!

Exadata e Eu!
December 8, 2011

Olá Pessoal,

Ontem participei do Oracle Open World 2011 Latin America, foi a primeira vez que participei do evento (essa é uma das vantagens de se morar em SP, os eventos são bem mais próximos) e gostei muito.

Fiquei quase que o tempo todo no stand da Discover, o pessoal se divertiu muito lá com games interativos :)

Pude ver de perto o Oracle Exadata e Exalogic e participei de algumas palestras de demonstrações, realmente valeu a pena.