Preparando o Oracle Database para o Exadata Machine – Parte 1: Utilizando o Exadata Simulation
June 24, 2016

Oracle Exadata Logo Mini - Flavio Soares

É possível estimar os benefícios do Exadata, sem estar no Exadata?

O Exadata conta com uma série de recursos (físicos e lógicos) que fazem com que a máquina trabalhe com notável desempenho, capacidade e mestria, executando atividades de maneira como nenhuma outra existente hoje no mercado para banco de dados.

O próprio Infiniband, que é um padrão de comunicação interconnect (db nodes e storage cells) que desempenha um excelente throughput de dados entre os servidores. Podemos listar outras features como o Smart Scan, Smart Flash, Storage Index, Column Projection, Offloading De Dados e Predicate Filtering, todas elas mudam completamente a forma como uma instrução é tratada no Exadata.

A abordagem ideal em uma migração não Exadata para Exadata, seria trabalhar em um cenário real: executar todas as cargas e processos do seu database no próprio hardware Exadata e comparar os resultados obtidos. Infelizmente, nem todos tem o privilégio de ter uma máquina dessas encostada no DataCenter, só para realizar esse tipo de teste. Muita das vezes, o esforço, tempo, planejamento e principalmente o investimento para se obter um teste desse, acaba não sendo justificado.

Pensando em tudo isso, a Oracle a partir do Oracle Database 11g Release 2, adicionou no SQL Performance Analyzers (SPA) a possibilidade de processar sua carga de trabalho real em um “simulador do storage cell”.

A ideia basicamente consiste em coletar a sua carga de trabalho e deixar armazenado em um SQL Tuning Set (SQLTSET). O SPA então executa o SQLTSET duas vezes, a primeira execução é processada normalmente sem nenhum alteração no banco de dados, já a segunda ele ativa o modo “cell storage simulation” e registra as informações obtidas. Após as duas execuções, o SPA avalia a mudança de comportamento através da coluna io_interconnect_bytes (v$SQL), apresentando no final um relatório com a comparação das duas execuções.

Com esse tipo de relatório em mãos, fica fácil de responder algumas perguntas como:

  • Como será o desempenho do Exadata com a minha carga de trabalho atual?
  • Será que o Exadata, é a máquina certa para o meu ambiente?
  • Os ganhos da performance do Exadata serão grandes o bastante para justificar o custo dessa máquina?

O Exadata simulation tem a capacidade de suportar apenas cargas de trabalhos de DW e DSS. O segredo do molho do Exadata nos ambientes OLTP é o acesso ao Smart Flash Cache. Como o Exadata Simulation não consegue calcular/reproduzir os acessos de blocos via Flash, torna a sua utilização nesse caso para cargas OLTP inviável de ser testado e não costumam apresentar grande mudanças de comportamento. Já cargas do estilo DW/DSS, que contém um alto número de acessos, grande retorno de linhas e um elevados full scans nas tabelas/indexes, torna o melhor candidato para ser reproduzido no Exadata Simulation.

 

Capturando os dados

É possível capturar os dados para o SQLSET, de duas formas:

1) Snapshot do AWR.

Nesse caso, você captura os dados de uma carga que aconteceu no passado via snapshot do AWR:

sys@sl01$1 SQL> COLUMN snaphist_begin_time      HEADING BEGIN_TIME    FORMAT a28 
sys@sl01$1 SQL> COLUMN snaphist_end_time        HEADING END_TIME      FORMAT a28 
sys@sl01$1 SQL> COLUMN snaphist_snap_id         HEADING SNAP_ID       FORMAT 999999
sys@sl01$1 SQL> COLUMN snaphist_dbid            HEADING DBID          FORMAT 99999999999
sys@sl01$1 SQL> COLUMN snaphist_inst_id         HEADING INST_ID       FORMAT 999999
sys@sl01$1 SQL> SELECT DISTINCT
  2    dbid snaphist_dbid,
  3    snap_id snaphist_snap_id, 
  4    TO_CHAR(begin_interval_time, 'DD/MM/YYYY HH24:MI') snaphist_begin_time,
  5    TO_CHAR(end_interval_time, 'DD/MM/YYYY HH24:MI') snaphist_end_time,
  6    error_count
  7    FROM dba_hist_snapshot
  8    WHERE end_interval_time 
  9    BETWEEN TO_TIMESTAMP('18-06-2016 00:00:00', 'DD-MM-YYYY HH24:MI:SS') AND TO_TIMESTAMP('20-06-2016 23:59:59', 'DD-MM-YYYY HH24:MI:SS')
 10    ORDER BY snaphist_dbid, snaphist_snap_id, 2;

        DBID SNAP_ID BEGIN_TIME                   END_TIME                     ERROR_COUNT
------------ ------- ---------------------------- ---------------------------- -----------
  3642494801   19504 18/06/2016 00:00             18/06/2016 00:15                       0
               19505 18/06/2016 00:15             18/06/2016 00:30                       0
               19506 18/06/2016 00:30             18/06/2016 00:45                       0
               19507 18/06/2016 00:45             18/06/2016 01:00                       0
               19508 18/06/2016 01:00             18/06/2016 01:15                       0
               19509 18/06/2016 01:15             18/06/2016 01:30                       0
               19510 18/06/2016 01:30             18/06/2016 01:45                       0
               19511 18/06/2016 01:45             18/06/2016 02:00                       0
               19512 18/06/2016 02:00             18/06/2016 02:15                       0
               19513 18/06/2016 02:15             18/06/2016 02:30                       0
               19514 18/06/2016 02:30             18/06/2016 02:45                       0
               19515 18/06/2016 02:45             18/06/2016 03:00                       0
               19516 18/06/2016 03:00             18/06/2016 03:15                       0
               19517 18/06/2016 03:15             18/06/2016 03:30                       0
               19518 18/06/2016 03:30             18/06/2016 03:45                       0
               19519 18/06/2016 03:45             18/06/2016 04:00                       0
               19520 18/06/2016 04:00             18/06/2016 04:15                       0
               19521 18/06/2016 04:15             18/06/2016 04:30                       0
               19522 18/06/2016 04:30             18/06/2016 04:45                       0
               19523 18/06/2016 04:45             18/06/2016 05:00                       0
               19524 18/06/2016 05:00             18/06/2016 05:15                       0
               19525 18/06/2016 05:15             18/06/2016 05:30                       0
               19526 18/06/2016 05:30             18/06/2016 05:45                       0
               19527 18/06/2016 05:45             18/06/2016 06:00                       0
               19528 18/06/2016 06:00             18/06/2016 06:15                       0
               19529 18/06/2016 06:15             18/06/2016 06:31                       0
               19530 18/06/2016 06:31             18/06/2016 06:45                       0
               19531 18/06/2016 06:45             18/06/2016 07:00                       0
               19532 18/06/2016 07:00             18/06/2016 07:15                       0
               19533 18/06/2016 07:15             18/06/2016 07:30                       0
               19534 18/06/2016 07:30             18/06/2016 07:45                       0
               19535 18/06/2016 07:45             18/06/2016 08:00                       0
               19536 18/06/2016 08:00             18/06/2016 08:15                       0
               19537 18/06/2016 08:15             18/06/2016 08:30                       0
               19538 18/06/2016 08:30             18/06/2016 08:45                       0
               19539 18/06/2016 08:45             18/06/2016 09:00                       0
               19540 18/06/2016 09:00             18/06/2016 09:15                       0
               19541 18/06/2016 09:15             18/06/2016 09:30                       0
               19542 18/06/2016 09:30             18/06/2016 09:45                       0
               19543 18/06/2016 09:45             18/06/2016 10:00                       0
               19544 18/06/2016 10:00             18/06/2016 10:15                       0
               19545 18/06/2016 10:15             18/06/2016 10:30                       0
               19546 18/06/2016 10:30             18/06/2016 10:45                       0
               19547 18/06/2016 10:45             18/06/2016 11:00                       0
               19548 18/06/2016 11:00             18/06/2016 11:15                       0
               19549 18/06/2016 11:15             18/06/2016 11:30                       0
               19550 18/06/2016 11:30             18/06/2016 11:45                       0
               19551 18/06/2016 11:45             18/06/2016 12:00                       0
               19552 18/06/2016 12:00             18/06/2016 12:15                       0
               19553 18/06/2016 12:15             18/06/2016 12:30                       0
               19554 18/06/2016 12:30             18/06/2016 12:45                       0
               19555 18/06/2016 12:45             18/06/2016 13:00                       0
               19556 18/06/2016 13:00             18/06/2016 13:15                       0
               19557 18/06/2016 13:15             18/06/2016 13:30                       0
               19558 18/06/2016 13:30             18/06/2016 13:45                       0
               19559 18/06/2016 13:45             18/06/2016 14:00                       0
               19560 18/06/2016 14:00             18/06/2016 14:15                       0
               19561 18/06/2016 14:15             18/06/2016 14:30                       0
               19562 18/06/2016 14:30             18/06/2016 14:45                       0
               19563 18/06/2016 14:45             18/06/2016 15:00                       0
               19564 18/06/2016 15:00             18/06/2016 15:15                       0
               19565 18/06/2016 15:15             18/06/2016 15:30                       0
               19566 18/06/2016 15:30             18/06/2016 15:45                       0
               19567 18/06/2016 15:45             18/06/2016 16:00                       0
               19568 18/06/2016 16:00             18/06/2016 16:15                       0
               19569 18/06/2016 16:15             18/06/2016 16:30                       0
               19570 18/06/2016 16:30             18/06/2016 16:45                       0
               19571 18/06/2016 16:45             18/06/2016 17:00                       0
               19572 18/06/2016 17:00             18/06/2016 17:15                       0
               19573 18/06/2016 17:15             18/06/2016 17:30                       0
               19574 18/06/2016 17:30             18/06/2016 17:45                       0
               19575 18/06/2016 17:45             18/06/2016 18:00                       0
               19576 18/06/2016 18:00             18/06/2016 18:15                       0
               19577 18/06/2016 18:15             18/06/2016 18:30                       0
               19578 18/06/2016 18:30             18/06/2016 18:45                       0
               19579 18/06/2016 18:45             18/06/2016 19:00                       0
               19580 18/06/2016 19:00             18/06/2016 19:15                       0
               19581 18/06/2016 19:15             18/06/2016 19:30                       0
               19582 18/06/2016 19:30             18/06/2016 19:45                       0
               19583 18/06/2016 19:45             18/06/2016 20:00                       0
               19584 18/06/2016 20:00             18/06/2016 20:15                       0
               19585 18/06/2016 20:15             18/06/2016 20:30                       0
               19586 18/06/2016 20:30             18/06/2016 20:45                       0
               19587 18/06/2016 20:45             18/06/2016 21:00                       0
               19588 18/06/2016 21:00             18/06/2016 21:15                       0
               19589 18/06/2016 21:15             18/06/2016 21:30                       0
               19590 18/06/2016 21:30             18/06/2016 21:45                       0
               19591 18/06/2016 21:45             18/06/2016 22:00                       0
               19592 18/06/2016 22:00             18/06/2016 22:15                       0
               19593 18/06/2016 22:15             18/06/2016 22:30                       0
               19594 18/06/2016 22:30             18/06/2016 22:45                       0
               19595 18/06/2016 22:45             18/06/2016 23:00                       0
               19596 18/06/2016 23:00             18/06/2016 23:15                       0
               19597 18/06/2016 23:15             18/06/2016 23:30                       0
               19598 18/06/2016 23:30             18/06/2016 23:45                       0
               19599 18/06/2016 23:45             19/06/2016 00:00                       0
               19600 19/06/2016 00:00             19/06/2016 00:15                       0
               19601 19/06/2016 00:15             19/06/2016 00:30                       0
               19602 19/06/2016 00:30             19/06/2016 00:45                       0
               19603 19/06/2016 00:45             19/06/2016 01:00                       0
               19604 19/06/2016 01:00             19/06/2016 01:15                       0
               19605 19/06/2016 01:15             19/06/2016 01:30                       0
               19606 19/06/2016 01:30             19/06/2016 01:45                       0
               19607 19/06/2016 01:45             19/06/2016 02:00                       0
               19608 19/06/2016 02:00             19/06/2016 02:15                       0
               19609 19/06/2016 02:15             19/06/2016 02:30                       0
               19610 19/06/2016 02:30             19/06/2016 02:45                       0
               19611 19/06/2016 02:45             19/06/2016 03:00                       0
               19612 19/06/2016 03:00             19/06/2016 03:15                       0
               19613 19/06/2016 03:15             19/06/2016 03:30                       0
               19614 19/06/2016 03:30             19/06/2016 03:45                       0
               19615 19/06/2016 03:45             19/06/2016 04:00                       0
               19616 19/06/2016 04:00             19/06/2016 04:15                       0
               19617 19/06/2016 04:15             19/06/2016 04:30                       0
               19618 19/06/2016 04:30             19/06/2016 04:45                       0
               19619 19/06/2016 04:45             19/06/2016 05:00                       0
               19620 19/06/2016 05:00             19/06/2016 05:15                       0
               19621 19/06/2016 05:15             19/06/2016 05:30                       0
               19622 19/06/2016 05:30             19/06/2016 05:45                       0
               19623 19/06/2016 05:45             19/06/2016 06:00                       0
               19624 19/06/2016 06:00             19/06/2016 06:15                       0
               19625 19/06/2016 06:15             19/06/2016 06:30                       0
               19626 19/06/2016 06:30             19/06/2016 06:45                       0
               19627 19/06/2016 06:45             19/06/2016 07:00                       0
               19628 19/06/2016 07:00             19/06/2016 07:15                       0
               19629 19/06/2016 07:15             19/06/2016 07:30                       0
               19630 19/06/2016 07:30             19/06/2016 07:45                       0
               19631 19/06/2016 07:45             19/06/2016 08:00                       0
               19632 19/06/2016 08:00             19/06/2016 08:15                       0
               19633 19/06/2016 08:15             19/06/2016 08:30                       0
               19634 19/06/2016 08:30             19/06/2016 08:45                       0
               19635 19/06/2016 08:45             19/06/2016 09:00                       0
               19636 19/06/2016 09:00             19/06/2016 09:15                       0
               19637 19/06/2016 09:15             19/06/2016 09:30                       0
               19638 19/06/2016 09:30             19/06/2016 09:45                       0
               19639 19/06/2016 09:45             19/06/2016 10:00                       0
               19640 19/06/2016 10:00             19/06/2016 10:15                       0
               19641 19/06/2016 10:15             19/06/2016 10:30                       0
               19642 19/06/2016 10:30             19/06/2016 10:45                       0
               19643 19/06/2016 10:45             19/06/2016 11:00                       0
               19644 19/06/2016 11:00             19/06/2016 11:15                       0
               19645 19/06/2016 11:15             19/06/2016 11:30                       0
               19646 19/06/2016 11:30             19/06/2016 11:45                       0
               19647 19/06/2016 11:45             19/06/2016 12:00                       0
               19648 19/06/2016 12:00             19/06/2016 12:15                       0
               19649 19/06/2016 12:15             19/06/2016 12:30                       0
               19650 19/06/2016 12:30             19/06/2016 12:45                       0
               19651 19/06/2016 12:45             19/06/2016 13:00                       0
               19652 19/06/2016 13:00             19/06/2016 13:15                       0
               19653 19/06/2016 13:15             19/06/2016 13:30                       0
               19654 19/06/2016 13:30             19/06/2016 13:45                       0
               19655 19/06/2016 13:45             19/06/2016 14:00                       0
               19656 19/06/2016 14:00             19/06/2016 14:15                       0
               19657 19/06/2016 14:15             19/06/2016 14:30                       0
               19658 19/06/2016 14:30             19/06/2016 14:45                       0
               19659 19/06/2016 14:45             19/06/2016 15:00                       0
               19660 19/06/2016 15:00             19/06/2016 15:15                       0
               19661 19/06/2016 15:15             19/06/2016 15:30                       0
               19662 19/06/2016 15:30             19/06/2016 15:45                       0
               19663 19/06/2016 15:45             19/06/2016 16:00                       0
               19664 19/06/2016 16:00             19/06/2016 16:15                       0
               19665 19/06/2016 16:15             19/06/2016 16:30                       0
               19666 19/06/2016 16:30             19/06/2016 16:45                       0
               19667 19/06/2016 16:45             19/06/2016 17:00                       0
               19668 19/06/2016 17:00             19/06/2016 17:15                       0
               19669 19/06/2016 17:15             19/06/2016 17:30                       0
               19670 19/06/2016 17:30             19/06/2016 17:45                       0
               19671 19/06/2016 17:45             19/06/2016 18:00                       0
               19672 19/06/2016 18:00             19/06/2016 18:15                       0
               19673 19/06/2016 18:15             19/06/2016 18:30                       0
               19674 19/06/2016 18:30             19/06/2016 18:45                       0
               19675 19/06/2016 18:45             19/06/2016 19:00                       0
               19676 19/06/2016 19:00             19/06/2016 19:15                       0
               19677 19/06/2016 19:15             19/06/2016 19:30                       0
               19678 19/06/2016 19:30             19/06/2016 19:45                       0
               19679 19/06/2016 19:45             19/06/2016 20:00                       0
               19680 19/06/2016 20:00             19/06/2016 20:15                       0
               19681 19/06/2016 20:15             19/06/2016 20:30                       0
               19682 19/06/2016 20:30             19/06/2016 20:45                       0
               19683 19/06/2016 20:45             19/06/2016 21:00                       0
               19684 19/06/2016 21:00             19/06/2016 21:15                       0
               19685 19/06/2016 21:15             19/06/2016 21:30                       0
               19686 19/06/2016 21:30             19/06/2016 21:45                       0
               19687 19/06/2016 21:45             19/06/2016 22:00                       0
               19688 19/06/2016 22:00             19/06/2016 22:15                       0
               19689 19/06/2016 22:15             19/06/2016 22:30                       0
               19690 19/06/2016 22:30             19/06/2016 22:45                       0
               19691 19/06/2016 22:45             19/06/2016 23:00                       0
               19692 19/06/2016 23:00             19/06/2016 23:15                       0
               19693 19/06/2016 23:15             19/06/2016 23:30                       0
               19694 19/06/2016 23:30             19/06/2016 23:45                       0
               19695 19/06/2016 23:45             20/06/2016 00:00                       0
               19696 20/06/2016 00:00             20/06/2016 00:15                       0
               19697 20/06/2016 00:15             20/06/2016 00:30                       0
               19698 20/06/2016 00:30             20/06/2016 00:45                       0
               19699 20/06/2016 00:45             20/06/2016 01:00                       0
               19700 20/06/2016 01:00             20/06/2016 01:15                       0
               19701 20/06/2016 01:15             20/06/2016 01:30                       0
               19702 20/06/2016 01:30             20/06/2016 01:45                       0
               19703 20/06/2016 01:45             20/06/2016 02:00                       0
               19704 20/06/2016 02:00             20/06/2016 02:15                       0
               19705 20/06/2016 02:15             20/06/2016 02:30                       0
               19706 20/06/2016 02:30             20/06/2016 02:45                       0
               19707 20/06/2016 02:45             20/06/2016 03:00                       0
               19708 20/06/2016 03:00             20/06/2016 03:15                       0
               19709 20/06/2016 03:15             20/06/2016 03:30                       0
               19710 20/06/2016 03:30             20/06/2016 03:45                       0
               19711 20/06/2016 03:45             20/06/2016 04:00                       0
               19712 20/06/2016 04:00             20/06/2016 04:15                       0
               19713 20/06/2016 04:15             20/06/2016 04:30                       0
               19714 20/06/2016 04:30             20/06/2016 04:45                       0
               19715 20/06/2016 04:45             20/06/2016 05:00                       0
               19716 20/06/2016 05:00             20/06/2016 05:15                       0
               19717 20/06/2016 05:15             20/06/2016 05:30                       0
               19718 20/06/2016 05:30             20/06/2016 05:45                       0
               19719 20/06/2016 05:45             20/06/2016 06:00                       0
               19720 20/06/2016 06:00             20/06/2016 06:15                       0
               19721 20/06/2016 06:15             20/06/2016 06:30                       0
               19722 20/06/2016 06:30             20/06/2016 06:45                       0
               19723 20/06/2016 06:45             20/06/2016 07:00                       0
               19724 20/06/2016 07:00             20/06/2016 07:15                       0
               19725 20/06/2016 07:15             20/06/2016 07:30                       0
               19726 20/06/2016 07:30             20/06/2016 07:45                       0
               19727 20/06/2016 07:45             20/06/2016 08:00                       0
               19728 20/06/2016 08:00             20/06/2016 08:15                       0
               19729 20/06/2016 08:15             20/06/2016 08:30                       0
               19730 20/06/2016 08:30             20/06/2016 08:45                       0
               19731 20/06/2016 08:45             20/06/2016 09:00                       0
               19732 20/06/2016 09:00             20/06/2016 09:15                       0
               19733 20/06/2016 09:15             20/06/2016 09:30                       0
               19734 20/06/2016 09:30             20/06/2016 09:45                       0
               19735 20/06/2016 09:45             20/06/2016 10:00                       0
               19736 20/06/2016 10:00             20/06/2016 10:15                       0
               19737 20/06/2016 10:15             20/06/2016 10:30                       0
               19738 20/06/2016 10:30             20/06/2016 10:45                       0
               19739 20/06/2016 10:45             20/06/2016 11:00                       0
               19740 20/06/2016 11:00             20/06/2016 11:15                       0
               19741 20/06/2016 11:15             20/06/2016 11:30                       0
               19742 20/06/2016 11:30             20/06/2016 11:45                       0
               19743 20/06/2016 11:45             20/06/2016 12:00                       0
               19744 20/06/2016 12:00             20/06/2016 12:15                       0
               19745 20/06/2016 12:15             20/06/2016 12:30                       0
               19746 20/06/2016 12:30             20/06/2016 12:45                       0
               19747 20/06/2016 12:45             20/06/2016 13:00                       0
               19748 20/06/2016 13:00             20/06/2016 13:15                       0
               19749 20/06/2016 13:15             20/06/2016 13:30                       0
               19750 20/06/2016 13:30             20/06/2016 13:45                       0
               19751 20/06/2016 13:45             20/06/2016 14:00                       0
               19752 20/06/2016 14:00             20/06/2016 14:15                       0
               19753 20/06/2016 14:15             20/06/2016 14:30                       0
               19754 20/06/2016 14:30             20/06/2016 14:45                       0
               19755 20/06/2016 14:45             20/06/2016 15:00                       0
               19756 20/06/2016 15:00             20/06/2016 15:15                       0
               19757 20/06/2016 15:15             20/06/2016 15:30                       0
               19758 20/06/2016 15:30             20/06/2016 15:45                       0
               19759 20/06/2016 15:45             20/06/2016 16:00                       0
               19760 20/06/2016 16:00             20/06/2016 16:15                       0
               19761 20/06/2016 16:15             20/06/2016 16:30                       0
               19762 20/06/2016 16:30             20/06/2016 16:45                       0
               19763 20/06/2016 16:45             20/06/2016 17:00                       0
               19764 20/06/2016 17:00             20/06/2016 17:15                       0
               19765 20/06/2016 17:15             20/06/2016 17:30                       0
               19766 20/06/2016 17:30             20/06/2016 17:45                       0
               19767 20/06/2016 17:45             20/06/2016 18:00                       0
               19768 20/06/2016 18:00             20/06/2016 18:15                       0
               19769 20/06/2016 18:15             20/06/2016 18:30                       0
               19770 20/06/2016 18:30             20/06/2016 18:45                       0
               19771 20/06/2016 18:45             20/06/2016 19:00                       0
               19772 20/06/2016 19:00             20/06/2016 19:15                       0
               19773 20/06/2016 19:15             20/06/2016 19:30                       0
               19774 20/06/2016 19:30             20/06/2016 19:45                       0
               19775 20/06/2016 19:45             20/06/2016 20:00                       0
               19776 20/06/2016 20:00             20/06/2016 20:15                       0
               19777 20/06/2016 20:15             20/06/2016 20:30                       0
               19778 20/06/2016 20:30             20/06/2016 20:45                       0
               19779 20/06/2016 20:45             20/06/2016 21:00                       0
               19780 20/06/2016 21:00             20/06/2016 21:15                       0
               19781 20/06/2016 21:15             20/06/2016 21:30                       0
               19782 20/06/2016 21:30             20/06/2016 21:45                       0
               19783 20/06/2016 21:45             20/06/2016 22:00                       0
               19784 20/06/2016 22:00             20/06/2016 22:15                       0
               19785 20/06/2016 22:15             20/06/2016 22:30                       0
               19786 20/06/2016 22:30             20/06/2016 22:45                       0
               19787 20/06/2016 22:45             20/06/2016 23:00                       0
               19788 20/06/2016 23:00             20/06/2016 23:15                       0
               19789 20/06/2016 23:15             20/06/2016 23:30                       0
               19790 20/06/2016 23:30             20/06/2016 23:45                       0


288 rows selected.

sys@sl01$1 SQL> 

Veja que estou solicitando todos os snapshots entre os dias 18 e 20. A partir disso, iniciamos a captura do workload desse intervalo de tempo.

sys@sl01$1 SQL> exec DBMS_SQLTUNE.CREATE_SQLSET('EXA_SQLSET01');

PL/SQL procedure successfully completed.

sys@sl01$1 SQL> DECLARE
   2    baseline_ref_cursor DBMS_SQLTUNE.SQLSET_CURSOR;
   3    BEGIN
   4       OPEN baseline_ref_cursor FOR
   5     select VALUE(p) from TABLE(DBMS_SQLTUNE.SELECT_WORKLOAD_REPOSITORY(19504, 19790, NULL, NULL, NULL, NULL, NULL, NULL, NULL, 'ALL')) p;
   6  
   7       DBMS_SQLTUNE.LOAD_SQLSET('EXA_SQLSET01', baseline_ref_cursor);
   8     END;
   9    /

PL/SQL procedure successfully completed.

Temos agora, o nosso SQLSET criado a partir dos snapshots 19504 e 19790.

Conferindo …

sys@sl01$1 SQL> select id, name, owner, created, last_modified, statement_count from DBA_SQLSET ORDER BY id, created;

        ID NAME                           OWNER                     CREATED             LAST_MODIFIED       STATEMENT_COUNT
---------- ------------------------------ ------------------------- ------------------- ------------------- ---------------
         3 EXA_SQLSET01                   SYS                       21/06/2016 07:36:37 21/06/2016 07:40:12             475

 

2) Carga de trabalho atual – Cursor Cache

Outra maneira de capturar o workload do seu database é através do cursor de dados. Nesse método nada mais é do que ativar um tempo estimado e deixar capturando as cargas em tempo real que está acontecendo no momento.

No exemplo abaixo, decidimos capturar o nosso SQL Tuning set baseado no workload de 2 horas do nosso database.

sys@sl01$1 SQL> BEGIN
  2       DBMS_SQLTUNE.CREATE_SQLSET(sqlset_name=>'EXA_SQLSET02');
  3  END;
  4  /

PL/SQL procedure successfully completed.

sys@sl01$1 SQL> BEGIN
  2        DBMS_SQLTUNE.CAPTURE_CURSOR_CACHE_SQLSET (
  3          sqlset_name     => 'EXA_SQLSET02',
  4          time_limit      => 7200,
  5          repeat_interval => 10
  6  ); END;
  7  /

PL/SQL procedure successfully completed.

 

Executando o Exadata Simulation – tcellsim.sql

Uma vez que o SQLSET está criado, o próximo passo é executar o Exadata Simulation através do script tcellsim.sql

O script tcellsim.sql fica localizado no $ORACLE_HOME/rdbms/admin do binário do Oracle.

Veja abaixo a execução:

sys@sl01$1 SQL> @?/rdbms/admin/tcellsim

10 Most active SQL tuning sets
~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~

NAME                OWNER             SQL_COUNT  DESCP
------------------  ----------------- ----------  --------------------
EXA_SQLSET02        SYS                  1598


Specify the name and owner of SQL tuning set to use
~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
Enter value for sts_name: EXA_SQLSET02
Enter value for sts_owner: SYS


 >> SQL tuning set specified: EXA_SQLSET02 owned by SYS


Run Cell simulation
~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~

>> 1. create a spa analysis task to test cell simulation
~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~

 >> Name of SPA analysis task: TASK_484

>> 2. Test execute statements with cell simulatin DISABLED
~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~

>> 3. Test execute statements with cell simulation ENABLED
~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~

>> 4. Compare peformance and generate analysis report
~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~

General Information
---------------------------------------------------------------------------------------------

 Task Information:        Workload Information:
 ---------------------------------------------  ---------------------------------------------
  Task Name    : TASK_484         SQL Tuning Set Name        : EXA_SQLSET02
  Task Owner   : SYS              SQL Tuning Set Owner       : SYS
  Description  :                  Total SQL Statement Count  : 1598

Execution Information:
---------------------------------------------------------------------------------------------
  Execution Name             : EXEC_462                  Started             : 06/21/2016 18:44:27
  Execution Type             : COMPARE PERFORMANCE       Last Updated        : 06/21/2016 20:44:27
  Description                :                           Global Time Limit   : UNLIMITED
  Scope                      : COMPREHENSIVE             Per-SQL Time Limit  : UNUSED
  Status                     : COMPLETED                 Number of Errors    : 3
  Number of Unsupported SQL  : 2

Analysis Information:
---------------------------------------------------------------------------------------------
 Before Change Execution:                          After Change Execution:
 ---------------------------------------------     ---------------------------------------------
  Execution Name      : cell_simulation_DISABLED   Execution Name      : cell_simulation_ENABLED
  Execution Type      : TEST EXECUTE               Execution Type      : TEST EXECUTE
  Scope               : COMPREHENSIVE              Scope               : COMPREHENSIVE
  Status              : COMPLETED                  Status              : COMPLETED
  Started             : 06/21/2016 21:33:00        Started             : 06/21/2016 21:38:45
  Last Updated        : 06/21/2016 21:38:43        Last Updated        : 06/21/2016 21:44:25
  Global Time Limit   : UNLIMITED                  Global Time Limit   : UNLIMITED
  Per-SQL Time Limit  : UNUSED                     Per-SQL Time Limit  : UNUSED
  Number of Errors    : 3                          Number of Errors    : 3

 
 ---------------------------------------------
 Comparison Metric: IO_INTERCONNECT_BYTES
 ------------------
 Workload Impact Threshold: 1%
 --------------------------
 SQL Impact Threshold: 1%
 ----------------------


Report Summary
---------------------------------------------------------------------------------------------

Projected Workload Change Impact:
-------------------------------------------
 Overall Impact      :  6.06%
 Improvement Impact  :  18.50%
 Regression Impact   :  -4.01%

SQL Statement Count
-------------------------------------------
 SQL Category  SQL Count  Plan Change Count
 Overall          1598                    0
 Improved          340                    0
 Regressed           2                    0
 Unchanged        1251                    0
 with Errors         3                    0
 Unsupported         2                    0

Top 10 SQL Sorted by Absolute Value of Change Impact on the Workload
---------------------------------------------------------------------------------------------
---------------------------------------------------------------------------------------------
|             |               | Impact on | Execution | Metric     |   Metric    |   Impact |
| object_id   | sql_id        | Workload  | Frequency | Before     |   After     |   on SQL |
---------------------------------------------------------------------------------------------
| 12341       | 05quhx2czmaau |   7.41%   |       582 | 3987577734 |   93984294  |   97.64% |
| 98271       | 07n9yv8rac2qq |   4.22%   |        38 |   85698319 |    3989341  |   95.34% |
| 24183       | 09p5nmnfq5gwg |   2.19%   |        41 |        779 |          0  |     100% |
| 82348       | 0za8d11cxbpr2 |   -.09%   |      2317 |   53382262 |   59460726  |  -11.39% |
| 24210       | 00ajuu5902429 |  -3.22%   |     22122 |       3894 |          0  |     100% |
| 22349       | 10s3r3f17ccu3 |   -.02%   |       314 |    5505024 |     294712  |   94.70% |
| 18820       | 1gfaj4z5hn1kf |   -.02%   |   1234112 |   13153621 |      32768  |   99.75% |
-----------------------------------------------------------------------------------------
Note: time statistics are displayed in microseconds
---------------------------------------------------------------------------------------------

O Exadata Simulation executa o SQL Set duas vezes, assim como falamos e no final apresenta o report.

Várias consultas foram mensuradas pelo Exadata simulation com uma melhora significativa, como é o caso da consulta 05quhx2czmaau que apresentou uma melhoria de 97.64%. Outros sqlids como os 09p5nmnfq5gwg e 00ajuu5902429, o Exadata Simulation calcula uma melhora de 100%.

Como apresentamos acima, o Exadata Simulation é uma ótima ferramenta e de fácil acesso para avaliar o desempenho do seu banco de dados em um storage cell do Exadata (offloading de dados, rede infiniband, etc ..). É claro, que uma avaliação como essa não substituí um teste real em um HW Exadata com todas as features trabalhando em conjunto, mas é um ponto de partida para não trabalhar no escuro.

Oracle 12c In-Memory Column Store – Parte 1: Quando apenas o “In-Memory” não é o bastante.
April 6, 2016

database-in-memory-01-2595522

Essa é uma série de posts sobre a nova feature “Oracle In-Memory Column Store” presente na versão do Oracle 12c. O Oracle há muitos anos, tem fornecido a leitura de blocos diretamente da memória RAM através do buffer cache (v$bh). Ao longo desses anos a Oracle tem feito um grande trabalho, aperfeiçoando cada vez mais o algoritmo LRU afim de otimizar as buscas por blocos quentes e mantê-los cada vez por mais tempo em memória para um acesso muito mais rápido, servindo como um verdadeiro “cache” para o banco de dados.

Com a vinda do IMDB, a arquitetura e a performance muda completamente comparado a leitura no buffer cache da memória do database, a começar pela maneira como o Oracle armazena os dados em memória. Assim como o nome da feature sugere, o Oracle In-Memory Column Store, passa agora a armazenar os dados de forma colunar, totalmente otimizado para a leitura via SDRAM, trabalhando como um verdadeiro DBMS orientado a coluna: Column-oriented DBMS

Não é preciso dizer que a RAM é muito mais rápida que um acesso a disco (isso todo mundo já sabe), assim não é nem preciso comentar ou mostrar aqui, que com a utilização do IMDB o ganho de performance é absurdo. Mas … será que o IMDB vem para resolver todo e qualquer tipo de problema na performance do ambiente?! O que pretendo apresentar nessa série de posts é justamente casos como esses, evidências e provas na utilização da nova feature, que assim como qualquer outra, apresentar suas vantagens e desvantagens e melhores formas de se utilizar.

É incrível a quantidade de DBAs e empresas que acreditam só em marketing mágica, que com apenas um “alter table” todos os problemas de performance irão desaparecer. IMDB não é sinônimo de “desligar o cérebro do DBA”.

A partir de agora, vou apresentar um comportamento bastante incomum em alguns ambientes com o Oracle Inmemory. Através do utilitário Swingbench criei a tabela SOE.ORDER_ITEMS de 12G. Essa será a nossa tabela teste para o uso do IMDB. Aqui mais detalhes da tabela:

sys@ora01 SQL> @size soe.order_items                                                                                           
                                                                                           
OWNER                     SEGMENT_NAME                   SEGMENT_TYPE             SIZE_MB  
------------------------- ------------------------------ ------------------ ------------- 
SOE                       ORDER_ITEMS                    TABLE                   12,398.0 
                                                                            -------------
sum                                                                              12,398.0

1 row selected.

sys@ora01 SQL> -- Atualizando as estatísticas da tabela:
sys@ora01 SQL> EXEC DBMS_STATS.GATHER_TABLE_STATS('SOE', 'ORDER_ITEMS', method_opt => 'FOR TABLE FOR ALL COLUMNS SIZE AUTO', cascade => true);

PL/SQL procedure successfully completed.

sys@ora01 SQL> @tbstat soe.order_items

=============================================
===        O B J E C T   T A B L E        ===
=============================================

OWNER: SOE                              TABLE: ORDER_ITEMS

           Name                            Null?    Type
           ------------------------------- -------- ----------------------------
    1      ORDER_ID                        NOT NULL NUMBER(12)
    2      LINE_ITEM_ID                    NOT NULL NUMBER(3)
    3      PRODUCT_ID                      NOT NULL NUMBER(6)
    4      UNIT_PRICE                               NUMBER(8,2)
    5      QUANTITY                                 NUMBER(8)
    6      DISPATCH_DATE                            DATE
    7      RETURN_DATE                              DATE
    8      GIFT_WRAP                                VARCHAR2(20)
    9      CONDITION                                VARCHAR2(20)
   10      SUPPLIER_ID                              NUMBER(6)
   11      ESTIMATED_DELIVERY                       DATE

================================================================================
Table Statistics
================================================================================
TABLE_NAME               : ORDER_ITEMS
STATUS                   : VALID
LAST_ANALYZED            : 29/03/2016 22:08:46
PARTITIONED              : NO
TEMPORARY                : N
DEGREE                   : 1
BUFFER_POOL              : DEFAULT
CACHE                    : NO
CELL_FLASH_CACHE         : DEFAULT
COMPRESSION              : DISABLED
RESULT_CACHE             : DEFAULT
ROW_MOVEMENT             : DISABLED
LOGGING                  : YES
SAMPLE_SIZE              : 85789721
==========================================================================================================================================================================
Column Statistics
==========================================================================================================================================================================
ID#   NAME                                       ANALYZED               NDV           DENSITY        # NULLS   # BUCKETS          SAMPLE      HISTOGRAM
==========================================================================================================================================================================
1     ORDER_ID                                29-03-16 22:08       28434432        0.00000004              0           1        85789721           NONE
2     LINE_ITEM_ID                            29-03-16 22:08              5        0.20000000              0           1        85789721           NONE
3     PRODUCT_ID                              29-03-16 22:08            999        0.00100100              0           1        85789721           NONE
4     UNIT_PRICE                              29-03-16 22:08           2000        0.00050000              0           1        85789721           NONE
5     QUANTITY                                29-03-16 22:08             10        0.10000000              0           1        85789721           NONE
6     DISPATCH_DATE                           29-03-16 22:08            124        0.00806452              0           1        85789721           NONE
7     RETURN_DATE                             29-03-16 22:08           4507        0.00022188       84059125           1         1730596           NONE
8     GIFT_WRAP                               29-03-16 22:08              6        0.16666667              0           1        85789721           NONE
9     CONDITION                               29-03-16 22:08              3        0.33333333              0           1        85789721           NONE
10    SUPPLIER_ID                             29-03-16 22:08            999        0.00100100              0           1        85789721           NONE
11    ESTIMATED_DELIVERY                      29-03-16 22:08           4507        0.00022188              0           1        85789721           NONE
==========================================================================================================================================================================
Index Information
==========================================================================================================================================================================
INDEX_NAME                 COLUMNS                                               ANALYZED           DIST_KEYS     DENSITY       NUM_ROWS     UNIQUE    VISIBLE    STATUS
==========================================================================================================================================================================
ITEM_ORDER_IX              ORDER_ID                                           29-03-16 22:08         28434432   0.0000000       82834901       NO        YES        OK
ITEM_PRODUCT_IX            PRODUCT_ID                                         29-03-16 22:08              999   0.0010010       79984685       NO         NO        OK
ORDER_ITEMS_PK             LINE_ITEM_ID ,ORDER_ID                             29-03-16 22:08         85615194   0.0000000       85615194      YES        YES        OK

sys@ora01 SQL> 

Veja que nesse momento, a tabela SOE.ORDER_ITEMS está com o InMemory desabilitado:

sys@ora01 SQL> select owner, table_name, inmemory from dba_tables where owner='SOE' and table_name='ORDER_ITEMS';

OWNER                     TABLE_NAME                     INMEMORY
------------------------- ------------------------------ --------
SOE                       ORDER_ITEMS                    DISABLED

1 row selected.

Vamos executar uma consulta de encontro a tabela e analisar os resultados. Veja que estou forçando a consulta a ser executada em serial e obtendo o máximo de estatísticas para análise, isso através dos hints NO_PARALLEL e GATHER_PLAN_STATISTICS respectivamente.

sys@ora01 SQL> SET TIMING ON
sys@ora01 SQL> SELECT /*+ monitor gather_plan_statistics no_parallel */ SUM(quantity) FROM soe.order_items WHERE product_id=:p;

SUM(QUANTITY)
-------------
      1376607

Elapsed: 00:00:43.51

1 row selected.

sys@ora01 SQL> -- Buscando o sqlid da query acima
sys@ora01 SQL> @lastsql

HASH_VALUE SQL_ID          CH#    PLAN_HASH HASH_HEX   SQL_TEXT
---------- ------------- ----- ------------ ---------- -----------------------------------------------------------------------------------------------------------------
3284254310 97h2yq31w3gm6     0   2407813087  c3c1be66  SELECT /*+ MONITOR GATHER_PLAN_STATISTICS NO_PARALLEL */ sum(QUANTITY) from  soe.order_items where PRODUCT_ID=:p

Vamos analisar agora, a consulta 97h2yq31w3gm6:

sys@ora01 SQL> SET HEADING OFF LINES 32767
sys@ora01 SQL> SELECT DBMS_SQLTUNE.REPORT_SQL_MONITOR(sql_id => '97h2yq31w3gm6', report_level=>'ALL', type => 'TEXT') as report FROM dual;

SQL Monitoring Report

SQL Text
------------------------------
SELECT /*+ monitor gather_plan_statistics no_parallel */ SUM(quantity) FROM soe.order_items WHERE product_id=:p

Global Information
------------------------------
 Status              :  DONE (ALL ROWS)
 SQL ID              :  97h2yq31w3gm6
 SQL Execution ID    :  16777216
 Duration            :  44s
 Module/Action       :  SQL*Plus/-
 Fetch Calls         :  1

Binds
========================================================================================================================
| Name | Position |  Type  |                                           Value                                           |
========================================================================================================================
| :P   |        1 | NUMBER | 509                                                                                       |
========================================================================================================================

Global Stats
================================================================
| Elapsed |   Cpu   |    IO    | Fetch | Buffer | Read | Read  |
| Time(s) | Time(s) | Waits(s) | Calls |  Gets  | Reqs | Bytes |
================================================================
|      44 |    4.92 |       39 |     1 |   251K | 250K |   2GB |
================================================================

SQL Plan Monitoring Details (Plan Hash Value=2407813087)
=================================================================================================================================================================================
| Id |               Operation                |      Name       |  Rows   | Cost |   Time    | Start  | Execs |   Rows   | Read | Read  | Activity |      Activity Detail       |
|    |                                        |                 | (Estim) |      | Active(s) | Active |       | (Actual) | Reqs | Bytes |   (%)    |        (# samples)         |
=================================================================================================================================================================================
|  0 | SELECT STATEMENT                       |                 |         |      |        39 |     +2 |     1 |        1 |      |       |          |                            |
|  1 |   SORT AGGREGATE                       |                 |       1 |      |        39 |     +2 |     1 |        1 |      |       |          |                            |
|  2 |    TABLE ACCESS BY INDEX ROWID BATCHED | ORDER_ITEMS     |   85876 |  697 |        40 |     +1 |     1 |     306K | 249K |   2GB |   100.00 | db file parallel read (40) |
|  3 |     INDEX RANGE SCAN                   | ITEM_PRODUCT_IX |   85876 |    2 |        39 |     +2 |     1 |     306K |  643 |   5MB |          |                            |
=================================================================================================================================================================================


1 row selected.

sys@ora01 SQL> SET HEADING ON

Temos aqui o plano da nossa consulta de encontra a tabela ORDER_ITEMS. Veja que a consulta levou cerca de 44s para ser processada, sendo que, 39s foram gastos em I/O e 5s em CPU. A leitura total em disco foi cerca de 2G.

A partir de agora, iniciaremos o nosso teste com o Oracle In-memory 12c. O objetivo aqui, é colocar a nossa tabela ORDER_ITEMS em modo In-Memory Column Store e realizar novamente a mesma consulta e obter algumas conclusões. O primeiro passo, é popular a coluna na memória:

sys@ora01 SQL> ALTER TABLE soe.order_items INMEMORY;

Table altered.

sys@ora01 SQL> ALTER SESSION SET "_inmemory_populate_wait"=TRUE;

Session altered.

sys@ora01 SQL> EXEC DBMS_INMEMORY.POPULATE('SOE','ORDER_ITEMS');

PL/SQL procedure successfully completed.

sys@ora01 SQL> COLUMN seg_inmem_size FORMAT 99,999,990.9 HEADING 'In-Memory|SIZE_MB'
sys@ora01 SQL> COLUMN seg_orig_size_megs FORMAT 99,999,990.9 HEADING 'ORIGINAL|SIZE_MB'
sys@ora01 SQL> COLUMN seg_megs_not_populated FORMAT 99,999,990.9 HEADING 'NOT POPULATE|SIZE_MB'
sys@ora01 SQL> COLUMN populate_status HEADING 'POPULATE|STATUS'
sys@ora01 SQL> SELECT
2          inst_id 
3          , v.owner
4          , v.segment_name
5          , v.populate_status
6          , v.inmemory_size/1024/1024 seg_inmem_size
7          , v.bytes/(1024*1024) seg_orig_size_megs
8          , v.bytes_not_populated/(1024*1024) seg_megs_not_populated
9          , v.inmemory_priority
10         , v.inmemory_compression 
11     FROM v$im_segments v 
12     WHERE UPPER(segment_name) LIKE UPPER(CASE WHEN INSTR('&1','.') > 0 THEN substr('&1',instr('&1','.')+1) ELSE '&1' END )
13     AND UPPER(owner) LIKE UPPER(CASE WHEN INSTR('&1','.') > 0 THEN SUBSTR('&1',1,instr('&1','.')-1) ELSE user END )
14   / 

                                                         POPULATE      In-Memory      ORIGINAL  NOT POPULATE   In-Memory      In-Memory
OWNER                     SEGMENT_NAME                   STATUS          SIZE_MB       SIZE_MB       SIZE_MB    PRIORITY      COMPRESSION
------------------------- ------------------------------ --------- ------------- -------------  -------------  --------- -----------------
SOE                       ORDER_ITEMS                    COMPLETED       3,554.1      12,398.0          0.0       NONE      FOR QUERY LOW

1 row selected.


Como mostra a view v$im_segments, veja que o status da nossa tabela está totalmente populada na área do InMemory, com um tamanho aproximadamente de 3500M.

Com a tabela na memória, iremos executar a mesma consulta e verificar os resultados, mas antes, vamos executar um flush no buffer cache/shared pool, para que os testes anteriores não sejam levados em consideração.

sys@ora01 SQL> ALTER SYSTEM FLUSH SHARED_POOL;

System altered.

sys@ora01 SQL> ALTER SYSTEM FLUSH BUFFER_CACHE;

System altered.

sys@ora01 SQL> SELECT /*+ monitor gather_plan_statistics no_parallel */ SUM(quantity) FROM soe.order_items WHERE product_id=:p;

SUM(QUANTITY)
-------------
      1376607

Elapsed: 00:00:43.03

1 row selected.

sys@ora01 SQL> @lastsql

HASH_VALUE SQL_ID          CH#    PLAN_HASH HASH_HEX   SQL_TEXT
---------- ------------- ----- ------------ ---------- -----------------------------------------------------------------------------------------------------------------
3284254310 97h2yq31w3gm6     0   2407813087  c3c1be66  SELECT /*+ monitor gather_plan_statistics no_parallel */ SUM(quantity) FROM soe.order_items WHERE product_id=:p

sys@ora01 SQL> SET HEADING OFF LINES 32767
sys@ora01 SQL> SELECT DBMS_SQLTUNE.REPORT_SQL_MONITOR(sql_id => '97h2yq31w3gm6', report_level=>'ALL', type => 'TEXT') as report FROM dual;


SQL Monitoring Report

SQL Text
------------------------------
SELECT /*+ monitor gather_plan_statistics no_parallel */ SUM(quantity) FROM soe.order_items WHERE product_id=:p

Global Information
------------------------------
 Status              :  DONE (ALL ROWS)
 SQL ID              :  97h2yq31w3gm6
 SQL Execution ID    :  16777216
 Duration            :  44s
 Module/Action       :  SQL*Plus/-
 Fetch Calls         :  1

Binds
========================================================================================================================
| Name | Position |  Type  |                                           Value                                           |
========================================================================================================================
| :P   |        1 | NUMBER | 509                                                                                       |
========================================================================================================================

Global Stats
================================================================
| Elapsed |   Cpu   |    IO    | Fetch | Buffer | Read | Read  |
| Time(s) | Time(s) | Waits(s) | Calls |  Gets  | Reqs | Bytes |
================================================================
|      44 |    4.92 |       39 |     1 |   251K | 250K |   2GB |
================================================================

SQL Plan Monitoring Details (Plan Hash Value=2407813087)
=================================================================================================================================================================================
| Id |               Operation                |      Name       |  Rows   | Cost |   Time    | Start  | Execs |   Rows   | Read | Read  | Activity |      Activity Detail       |
|    |                                        |                 | (Estim) |      | Active(s) | Active |       | (Actual) | Reqs | Bytes |   (%)    |        (# samples)         |
=================================================================================================================================================================================
|  0 | SELECT STATEMENT                       |                 |         |      |        39 |     +2 |     1 |        1 |      |       |          |                            |
|  1 |   SORT AGGREGATE                       |                 |       1 |      |        39 |     +2 |     1 |        1 |      |       |          |                            |
|  2 |    TABLE ACCESS BY INDEX ROWID BATCHED | ORDER_ITEMS     |   85876 |  697 |        40 |     +1 |     1 |     306K | 249K |   2GB |   100.00 | db file parallel read (40) |
|  3 |     INDEX RANGE SCAN                   | ITEM_PRODUCT_IX |   85876 |    2 |        39 |     +2 |     1 |     306K |  643 |   5MB |          |                            |
=================================================================================================================================================================================


1 row selected.

sys@ora01 SQL> SET HEADING ON

Nada mudou em relação a primeira execução. Veja que interessante, mesmo com a minha tabela totalmente carregada na memória via IMDB a quantidade de leitura física da primeira execução com a segunda foi exatamente a mesma. O tempo total da consulta também não mudou, levamos cerca de ~ 44s para retornar os dados.

Se a ORDER_ITEMS está agora totalmente disponível via InMemory Column Store, porque o Oracle está fazendo a mesma quantidade de leitura em disco? Ele não deveria buscar os dados em memória e evitar essa grande quantidade de leitura em disco?

Como regra geral (assim como acontece no SmartScan do Exadata), para que o otimizador do Oracle decida ir vi InMemory, um acesso “FULL SCAN” deve ser feito na tabela. Observe no plano de execução da consulta acima, que o caminho escolhido pelo Oracle é através do INDEX ITEM_PRODUCT_IX (via INDEX RANGE SCAN).

=================================================================================================================================================================================
| Id |               Operation                |      Name       |  Rows   | Cost |   Time    | Start  | Execs |   Rows   | Read | Read  | Activity |      Activity Detail       |
|    |                                        |                 | (Estim) |      | Active(s) | Active |       | (Actual) | Reqs | Bytes |   (%)    |        (# samples)         |
=================================================================================================================================================================================
|  2 |    TABLE ACCESS BY INDEX ROWID BATCHED | ORDER_ITEMS     |   85876 |  697 |        40 |     +1 |     1 |     306K | 249K |   2GB |   100.00 | db file parallel read (40) |
|  3 |     INDEX RANGE SCAN                   | ITEM_PRODUCT_IX |   85876 |    2 |        39 |     +2 |     1 |     306K |  643 

O Whitepaper do Oracle Database In-Memory 12c, é bem claro ao dizer que a busca dos dados via In-memory será feito apenas quando o acesso na tabela for via FULL SCAN. Assim jamais a nossa consulta acima irá consulta os dados presentes na nossa RAM, já que o otimizador está escolhendo o caminho através do index ITEM_PRODUCT_IX.

Podemos resolver essa situação adicionando o hint FULL na consulta, ou deixando o Index ITEM_PRODUCT_IX invisible. Veja só o resultado:

sys@ora01 SQL> alter index soe.ITEM_PRODUCT_IX invisible;

Index altered.

sys@ora01 SQL> SELECT /*+ MONITOR GATHER_PLAN_STATISTICS NO_PARALLEL */ sum(QUANTITY) from  soe.order_items where PRODUCT_ID=:p;

SUM(QUANTITY)
-------------
      1376607

Elapsed: 00:00:00.05

1 row selected.

sys@ora01 SQL> SET HEADING OFF LINES 32767
sys@ora01 SQL> SELECT DBMS_SQLTUNE.REPORT_SQL_MONITOR(sql_id => '97h2yq31w3gm6', report_level=>'ALL', type => 'TEXT') as report FROM dual;

SQL Monitoring Report

SQL Text
------------------------------
SELECT /*+ MONITOR GATHER_PLAN_STATISTICS NO_PARALLEL */ sum(QUANTITY) from soe.order_items where PRODUCT_ID=:p

Global Information
------------------------------
 Status              :  DONE (ALL ROWS)
 Instance ID         :  1
 Session             :  SYS (1150:44245)
 SQL ID              :  97h2yq31w3gm6
 SQL Execution ID    :  16777217
 Duration            :  .041563s
 Module/Action       :  SQL*Plus/-
 Service             :  SYS$USERS
 Program             :  sqlplus@Flavios-MacBook-Pro.local (TNS V1-V3)
 Fetch Calls         :  1

Binds
========================================================================================================================
| Name | Position |  Type  |                                           Value                                           |
========================================================================================================================
| :P   |        1 | NUMBER | 509                                                                                       |
========================================================================================================================

Global Stats
===========================================================================
| Elapsed |   Cpu   |    IO    |  Other   | Fetch | Buffer | Read | Read  |
| Time(s) | Time(s) | Waits(s) | Waits(s) | Calls |  Gets  | Reqs | Bytes |
===========================================================================
|    0.04 |    0.04 |     0.00 |     0.00 |     1 |    249 |   18 | 144KB |
===========================================================================

SQL Plan Monitoring Details (Plan Hash Value=3419397814)
=========================================================================================================================================================
| Id |           Operation           |    Name     |  Rows   | Cost |   Time    | Start  | Execs |   Rows   | Read | Read  | Activity | Activity Detail |
|    |                               |             | (Estim) |      | Active(s) | Active |       | (Actual) | Reqs | Bytes |   (%)    |   (# samples)   |
=========================================================================================================================================================
|  0 | SELECT STATEMENT              |             |         |      |         1 |     +0 |     1 |        1 |      |       |          |                 |
|  1 |   SORT AGGREGATE              |             |       1 |      |         1 |     +0 |     1 |        1 |      |       |          |                 |
|  2 |    TABLE ACCESS INMEMORY FULL | ORDER_ITEMS |   85876 | 7880 |         1 |     +0 |     1 |     306K |   12 | 98304 |          |                 |
=========================================================================================================================================================


1 row selected.

sys@ora01 SQL> 

Aqui podemos notar o poder do INMEMORY, observe o tempo, caiu de 44s para apenas 0.4s. Veja também que agora a operação de consulta não foi mais via INDEX RANGE SCAN e sim via TABLE ACCESS INMEMORY FULL, o que mostra que a busca dos dados foi exclusivamente na memória para a tabela ORDER_ITEMS. Outro ponto importante é a quantidade de leitura física que de 2G caiu para 144KB. O tempo 0.4s foi exclusivamente o tempo da CPU em processar os dados  (CPU Time(s)).

Chegamos aqui, com algumas conclusões:

  • Vou ter performance colocando todas as minhas tabelas em IMDB? É necessário testar, não tem outro caminho. Cada ambiente é única e existe muita variável no meio do caminho. Como os testes acima, mesmo ativando o IMDB, não vimos nenhuma melhora até analisar e corrigir.
  • Porque o Oracle decide um acesso via INDEX, sendo que meus dados estão na memória? Bom, isso vou explicar melhor em um próximo post, mas basicamente o Oracle considera o custo do INDEX menor, por isso acaba optando pela utilização do INDEX. Alguns parâmetros no banco também afetam essa decisão, vamos conferir isso melhor nos próximos posts.
  • Se o IMDB só funciona via FULL SCAN, devo deixar todos meus INDEXES invisíveis? NUNCA!!! Isso é um mito que surgiu com o Exadata. É importante lembra que tanto no IMDB como no Exadata, o INDEX não é um vilão. Um acesso via INDEX pode muitas vezes ser muito mais benéfico, já que o objetivo do INDEX é justamente economizar leitura em disco. A TI é um mundo lógico e deve ser sempre levado, como os gringos gostam de falar, com systematic approach. Não existe mágica. Nos próximos posts, vou mostrar melhor esse tema.
  • Vou precisar mudar minha aplicação para utilizar o IMDB? Como está na documentação Oracle, você não precisa mover uma vírgula da aplicação para utilizar o IMDB. Agora fazemos outra pergunta: Vou ter performance em todas as tabelas que coloquei no INMEMORY? Mais uma vez …. Depende! É necessário testar.
  • O IMDB realmente é performático? Sim, extremamente performático comparado com tudo que temos no mercado! Como disse no começo do post, não é necessário explicar a imensa diferença de performance da RAM contra o disco, todos já sabem. É necessário no entanto saber aproveitar e saber utilizar a feature da melhor forma. Como vimos nesse simples exemplo, uma consulta teste, caiu de 44s para 0.4s, e o mais importante, sem mudar uma vírgula na consulta.
  • Minha aplicação OLTP cheia de INDEX, vou ter algum ganho com o IMDB? Provavelmente. Mas uma vez: É necessário testar! Deve-se sempre avaliar, estatísticas, index, hints, etc …

Aguarde os próximos posts, tem muita coisa interessante sobre essa nova incrível feature do Oracle.

Até lá :)

 

Como configurar ASM DiskGroup para o uso do Exadata Storage Server
April 17, 2015

Para habilitar o processamento de dados via Smart Scan pelo Storage Server do Exadata, algumas definições no momento da criação do ASM Diskgroup devem ser consideradas:

  • compatible.rdbms = 11.2.0.0.0 (ou maior)
  • compatible.asm = 11.2.0.0.0 (ou maior)
  • cell.smart_scan_capable = TRUE

Além disso, a Oracle extremamente recomenda definir o atributo AU_SIZE do Diskgroup para 4MB, afim de otimizar o scans dos discos.

Aqui está um exemplo da criação do diskgroup:

SQL> CREATE DISKGROUP DATA NORMAL REDUNDANCY
2    DISK 'o/*/DATA*'
3    ATTRIBUTE 'compatible.rdbms' = '11.2.0.0.0',
4              'compatible.asm' = ''11.2.0.3',
5              'cell.smart_scan_capable' = 'TRUE',
6              'au_size' = '4M';

Diskgroup created.

SQL> CREATE DISKGROUP RECO EXTERNAL REDUNDANCY 
2    DISK 'o/*/RECO*'
3   ATTRIBUTE 'compatible.rdbms' = '11.2.0.0.0',
4             'compatible.asm' = ''11.2.0.3',
5             'cell.smart_scan_capable' = 'TRUE',
6             'au_size' = '4M';

Diskgroup created.

SQL> CREATE DISKGROUP DBFS_DG EXTERNAL REDUNDANCY 
2    DISK 'o/*/DBFS*'
3   ATTRIBUTE 'compatible.rdbms' = '11.2.0.0.0',
4             'compatible.asm' = ''11.2.0.3',
5             'cell.smart_scan_capable' = 'TRUE',
6             'au_size' = '4M';
/

Diskgroup created.

Obs: Não é necessário configurar os failgroup, por padrão no Exadata, cada Cell Storage Server se tornará um failgroup.

Para conferir os atributos do diskgroup que acabamos de criar, você pode consultar através da view V$ASM_ATTRIBUTE. Para facilitar, utilize o script asmattr.sql abaixo para realizar essa consulta:

-----------------------------------------------------------------------------------------------------------
-- Header:      asmattr.sql   20-out-2012.18:15   $   FSX Scripts - Flavio Soares X Scripts
--
-- Filename:    asmattr.sql
--
-- Version:     v1
--
-- Purpose:     Displays one row for each attribute defined in ASM Diskgroup.
--
-- Modified:
--              
--
-- Notes:       
--
-- Usage:       SQL> @asmattr % | <diskgroup_name> 
--
--
-- Others:      
--
-- Author:      Flavio Soares 
-- Copyright:   (c) Flavio Soares - http://flaviosoares.com - All rights reserved.
-----------------------------------------------------------------------------------------------------------

PROMPT Showing the ASM Diskgroup attributes ... DISKGROUP: &1 

COLUMN asmattr_diskgroup_name    HEADING DISKGROUP       FORMAT A30
COLUMN asmattr_attribute_name    HEADING ATTRIBUTE_NAME  FORMAT a60    
COLUMN asmattr_value             HEADING VALUE           FORMAT a25
COLUMN asmattr_group_number      HEADING GN#             FORMAT 9999

BREAK ON asmattr_diskgroup_name ON asmattr_group_number skip 1

SELECT 
        dg.group_number asmattr_group_number,
	dg.name    asmattr_diskgroup_name, 
	attr.name  asmattr_attribute_name, 
  CASE 
     WHEN attr.name = 'au_size' THEN attr.value/1048576 || 'MB' 
     ELSE attr.value 
  END asmattr_value
FROM v$asm_diskgroup dg, v$asm_attribute attr 
WHERE dg.group_number = attr.group_number (+)
AND dg.name LIKE UPPER(('&1'));

Veja o resultado abaixo da execução do script:

  

SQL> @asmattr %

GN# DISKGROUP                      ATTRIBUTE_NAME                                               VALUE
----- ------------------------------ ------------------------------------------------------------ -------------------------
    1 DATA                           disk_repair_time                                             3.6h
                                     au_size                                                      4MB
                                     sector_size                                                  512
                                     compatible.asm                                               11.2.0.0.0
                                     compatible.rdbms                                             11.2.0.0.0
                                     cell.smart_scan_capable                                      TRUE
                                     access_control.enabled                                       FALSE
                                     access_control.umask                                         066
                                     phys_meta_replicated                                         true
                                     failgroup_repair_time                                        24.0h
                                     thin_provisioned                                             FALSE
                                     content.type                                                 data
                                     content.check                                                FALSE
                                     template_version                                             186646528
                                     template.PARAMETERFILE.stripe                                0
                                     template.PARAMETERFILE.redundancy                            17
                                     template.PARAMETERFILE.primary_region                        0
                                     template.PARAMETERFILE.mirror_region                         0
                                     template.ASMPARAMETERFILE.stripe                             0
                                     template.ASMPARAMETERFILE.redundancy                         17
                                     template.ASMPARAMETERFILE.primary_region                     0
                                     template.ASMPARAMETERFILE.mirror_region                      0
                                     template.DUMPSET.stripe                                      0
                                     template.DUMPSET.redundancy                                  17
                                     template.DUMPSET.primary_region                              0
                                     template.DUMPSET.mirror_region                               0
                                     template.CONTROLFILE.stripe                                  1
                                     template.CONTROLFILE.redundancy                              17
                                     template.CONTROLFILE.primary_region                          0
                                     template.CONTROLFILE.mirror_region                           0
                                     template.FLASHFILE.stripe                                    0
                                     template.FLASHFILE.redundancy                                17
                                     template.FLASHFILE.primary_region                            0
                                     template.FLASHFILE.mirror_region                             0
                                     template.ARCHIVELOG.stripe                                   0
                                     template.ARCHIVELOG.redundancy                               17
                                     template.ARCHIVELOG.primary_region                           0
                                     template.ARCHIVELOG.mirror_region                            0
                                     template.ONLINELOG.stripe                                    0
                                     template.ONLINELOG.redundancy                                17
                                     template.ONLINELOG.primary_region                            0
                                     template.ONLINELOG.mirror_region                             0
                                     template.DATAFILE.stripe                                     0
                                     template.DATAFILE.redundancy                                 17
                                     template.DATAFILE.primary_region                             0
                                     template.DATAFILE.mirror_region                              0
                                     template.TEMPFILE.stripe                                     0
                                     template.TEMPFILE.redundancy                                 17
                                     template.TEMPFILE.primary_region                             0
                                     template.TEMPFILE.mirror_region                              0
                                     template.BACKUPSET.stripe                                    0
                                     template.BACKUPSET.redundancy                                17
                                     template.BACKUPSET.primary_region                            0
                                     template.BACKUPSET.mirror_region                             0
                                     template.AUTOBACKUP.stripe                                   0
                                     template.AUTOBACKUP.redundancy                               17
                                     template.AUTOBACKUP.primary_region                           0
                                     template.AUTOBACKUP.mirror_region                            0
                                     template.XTRANSPORT.stripe                                   0
                                     template.XTRANSPORT.redundancy                               17
                                     template.XTRANSPORT.primary_region                           0
                                     template.XTRANSPORT.mirror_region                            0
                                     template.CHANGETRACKING.stripe                               0
                                     template.CHANGETRACKING.redundancy                           17
                                     template.CHANGETRACKING.primary_region                       0
                                     template.CHANGETRACKING.mirror_region                        0
                                     template.FLASHBACK.stripe                                    0
                                     template.FLASHBACK.redundancy                                17
                                     template.FLASHBACK.primary_region                            0
                                     template.FLASHBACK.mirror_region                             0
                                     template.DATAGUARDCONFIG.stripe                              0
                                     template.DATAGUARDCONFIG.redundancy                          17
                                     template.DATAGUARDCONFIG.primary_region                      0
                                     template.DATAGUARDCONFIG.mirror_region                       0
                                     template.OCRFILE.stripe                                      0
                                     template.OCRFILE.redundancy                                  17
                                     template.OCRFILE.primary_region                              0
                                     template.OCRFILE.mirror_region                               0

    2 RECO                           disk_repair_time                                             3.6h
                                     au_size                                                      4MB
                                     sector_size                                                  512
                                     compatible.asm                                               11.2.0.0.0
                                     compatible.rdbms                                             11.2.0.0.0
                                     cell.smart_scan_capable                                      TRUE
                                     access_control.enabled                                       FALSE
                                     access_control.umask                                         066
                                     phys_meta_replicated                                         true
                                     failgroup_repair_time                                        24.0h
                                     thin_provisioned                                             FALSE
                                     content.type                                                 data
                                     content.check                                                FALSE
                                     template_version                                             186646528
                                     template.PARAMETERFILE.stripe                                0
                                     template.PARAMETERFILE.redundancy                            17
                                     template.PARAMETERFILE.primary_region                        0
                                     template.PARAMETERFILE.mirror_region                         0
                                     template.ASMPARAMETERFILE.stripe                             0
                                     template.ASMPARAMETERFILE.redundancy                         17
                                     template.ASMPARAMETERFILE.primary_region                     0
                                     template.ASMPARAMETERFILE.mirror_region                      0
                                     template.DUMPSET.stripe                                      0
                                     template.DUMPSET.redundancy                                  17
                                     template.DUMPSET.primary_region                              0
                                     template.DUMPSET.mirror_region                               0
                                     template.CONTROLFILE.stripe                                  1
                                     template.CONTROLFILE.redundancy                              17
                                     template.CONTROLFILE.primary_region                          0
                                     template.CONTROLFILE.mirror_region                           0
                                     template.FLASHFILE.stripe                                    0
                                     template.FLASHFILE.redundancy                                17
                                     template.FLASHFILE.primary_region                            0
                                     template.FLASHFILE.mirror_region                             0
                                     template.ARCHIVELOG.stripe                                   0
                                     template.ARCHIVELOG.redundancy                               17
                                     template.ARCHIVELOG.primary_region                           0
                                     template.ARCHIVELOG.mirror_region                            0
                                     template.ONLINELOG.stripe                                    0
                                     template.ONLINELOG.redundancy                                17
                                     template.ONLINELOG.primary_region                            0
                                     template.ONLINELOG.mirror_region                             0
                                     template.DATAFILE.stripe                                     0
                                     template.DATAFILE.redundancy                                 17
                                     template.DATAFILE.primary_region                             0
                                     template.DATAFILE.mirror_region                              0
                                     template.TEMPFILE.stripe                                     0
                                     template.TEMPFILE.redundancy                                 17
                                     template.TEMPFILE.primary_region                             0
                                     template.TEMPFILE.mirror_region                              0
                                     template.BACKUPSET.stripe                                    0
                                     template.BACKUPSET.redundancy                                17
                                     template.BACKUPSET.primary_region                            0
                                     template.BACKUPSET.mirror_region                             0
                                     template.AUTOBACKUP.stripe                                   0
                                     template.AUTOBACKUP.redundancy                               17
                                     template.AUTOBACKUP.primary_region                           0
                                     template.AUTOBACKUP.mirror_region                            0
                                     template.XTRANSPORT.stripe                                   0
                                     template.XTRANSPORT.redundancy                               17
                                     template.XTRANSPORT.primary_region                           0
                                     template.XTRANSPORT.mirror_region                            0
                                     template.CHANGETRACKING.stripe                               0
                                     template.CHANGETRACKING.redundancy                           17
                                     template.CHANGETRACKING.primary_region                       0
                                     template.CHANGETRACKING.mirror_region                        0
                                     template.FLASHBACK.stripe                                    0
                                     template.FLASHBACK.redundancy                                17
                                     template.FLASHBACK.primary_region                            0
                                     template.FLASHBACK.mirror_region                             0
                                     template.DATAGUARDCONFIG.stripe                              0
                                     template.DATAGUARDCONFIG.redundancy                          17
                                     template.DATAGUARDCONFIG.primary_region                      0
                                     template.DATAGUARDCONFIG.mirror_region                       0
                                     template.OCRFILE.stripe                                      0
                                     template.OCRFILE.redundancy                                  17
                                     template.OCRFILE.primary_region                              0
                                     template.OCRFILE.mirror_region                               0

    3 DBFS                           disk_repair_time                                             3.6h
                                     au_size                                                      4MB
                                     sector_size                                                  512
                                     compatible.asm                                               11.2.0.0.0
                                     compatible.rdbms                                             11.2.0.0.0
                                     cell.smart_scan_capable                                      TRUE
                                     access_control.enabled                                       FALSE
                                     access_control.umask                                         066
                                     phys_meta_replicated                                         true
                                     failgroup_repair_time                                        24.0h
                                     thin_provisioned                                             FALSE
                                     content.type                                                 data
                                     content.check                                                FALSE
                                     template_version                                             186646528
                                     template.PARAMETERFILE.stripe                                0
                                     template.PARAMETERFILE.redundancy                            17
                                     template.PARAMETERFILE.primary_region                        0
                                     template.PARAMETERFILE.mirror_region                         0
                                     template.ASMPARAMETERFILE.stripe                             0
                                     template.ASMPARAMETERFILE.redundancy                         17
                                     template.ASMPARAMETERFILE.primary_region                     0
                                     template.ASMPARAMETERFILE.mirror_region                      0
                                     template.DUMPSET.stripe                                      0
                                     template.DUMPSET.redundancy                                  17
                                     template.DUMPSET.primary_region                              0
                                     template.DUMPSET.mirror_region                               0
                                     template.CONTROLFILE.stripe                                  1
                                     template.CONTROLFILE.redundancy                              17
                                     template.CONTROLFILE.primary_region                          0
                                     template.CONTROLFILE.mirror_region                           0
                                     template.FLASHFILE.stripe                                    0
                                     template.FLASHFILE.redundancy                                17
                                     template.FLASHFILE.primary_region                            0
                                     template.FLASHFILE.mirror_region                             0
                                     template.ARCHIVELOG.stripe                                   0
                                     template.ARCHIVELOG.redundancy                               17
                                     template.ARCHIVELOG.primary_region                           0
                                     template.ARCHIVELOG.mirror_region                            0
                                     template.ONLINELOG.stripe                                    0
                                     template.ONLINELOG.redundancy                                17
                                     template.ONLINELOG.primary_region                            0
                                     template.ONLINELOG.mirror_region                             0
                                     template.DATAFILE.stripe                                     0
                                     template.DATAFILE.redundancy                                 17
                                     template.DATAFILE.primary_region                             0
                                     template.DATAFILE.mirror_region                              0
                                     template.TEMPFILE.stripe                                     0
                                     template.TEMPFILE.redundancy                                 17
                                     template.TEMPFILE.primary_region                             0
                                     template.TEMPFILE.mirror_region                              0
                                     template.BACKUPSET.stripe                                    0
                                     template.BACKUPSET.redundancy                                17
                                     template.BACKUPSET.primary_region                            0
                                     template.BACKUPSET.mirror_region                             0
                                     template.AUTOBACKUP.stripe                                   0
                                     template.AUTOBACKUP.redundancy                               17
                                     template.AUTOBACKUP.primary_region                           0
                                     template.AUTOBACKUP.mirror_region                            0
                                     template.XTRANSPORT.stripe                                   0
                                     template.XTRANSPORT.redundancy                               17
                                     template.XTRANSPORT.primary_region                           0
                                     template.XTRANSPORT.mirror_region                            0
                                     template.CHANGETRACKING.stripe                               0
                                     template.CHANGETRACKING.redundancy                           17
                                     template.CHANGETRACKING.primary_region                       0
                                     template.CHANGETRACKING.mirror_region                        0
                                     template.FLASHBACK.stripe                                    0
                                     template.FLASHBACK.redundancy                                17
                                     template.FLASHBACK.primary_region                            0
                                     template.FLASHBACK.mirror_region                             0
                                     template.DATAGUARDCONFIG.stripe                              0
                                     template.DATAGUARDCONFIG.redundancy                          17
                                     template.DATAGUARDCONFIG.primary_region                      0
                                     template.DATAGUARDCONFIG.mirror_region                       0
                                     template.OCRFILE.stripe                                      0
                                     template.OCRFILE.redundancy                                  17
                                     template.OCRFILE.primary_region                              0
                                     template.OCRFILE.mirror_region                               0

Uma configuração importante que muitas vezes é deixado de lado é o ASM ContentType do diskgroup. A partir da versão 11.2.0.3, conseguimos determinar a distância dos dados entre os “discos vizinhos” dentro do diskgroup.

Cada configuração do ContentType modifica no algoritmo ASM a medição adjacente onde o dados espelhado ficará, o resultado disso é que o conteúdo do diskgroup com diferentes ContentType irá distribuir desigualmente os extents (primário e secundário) nos discos disponível fazendo assim, a probabilidade de uma dupla falha de disco resultar em uma perca de dados.

Para ficar mais fácil de entender, veja os exemplos abaixo:

contetypeasm_1

Acima está o comportamento padrão do ASM. Os diskgroup FRA1 e DATA1 acima estão configurado com redundância NORMAL e não estão utilizando o content.type, sendo assim utilizam o algoritmo padrão de posicionamento das extensões secundárias (copias espelhadas), dessa forma ambos os diskgroup utilizam o mesmo algoritmo para determinar o posicionamento dos extents secundários.

O grande problema dessa regra, está quando acontece uma falha em dois discos simultaneamente.

Na figura que colocamos acima, estamos recebendo um erro ao mesmo tempo nos discos 3 e 4, onde justamente os extents primário “P vermelho” e seu e extent secundário “S vermelho” encontra-se. Com isso ambos os Diskgroup DATA1 e DATA2 sofrem perca de dados.

contetypeasm_1

Com a versão 11.2.0.3 temos agora o content.type onde podemos mudar esse comportamento, com ele definimos que diferentes ContentType são distribuídos em diferentes discos disponíveis para os extents secundários.

Agora temos outro exemplo para os Diskgroups DATA2 e FRA2. Eles também foram criados com redundância NORMAL, porém ambos com o ContentType definidos:

contetypeasm_1

Veja agora como os extents secundário ficaram espalhados perante aos seus extents primários. Com essa configuração, a falha vinda de múltiplos discos, somente o DATA2 resultará em perca de dados. Entretanto por causa da configuração do ContentType, o diskgroup FRA2 não sofrerá nenhuma perca de seus dados.

Com o ContentType definido, como uma falha dupla como essa, irá acarretar em perca dos datafiles do diskgroup DATA2, porém os archives logs necessários para recuperar esses arquivos, não foram perdidos e continuam disponível.

contetypeasm_1

Temos três configurações disponíveis para o ContentType do ASM:

– content.type=data
Utilizado por padrão para o diskgroup DATA, que geralmente é utilizado para armazenar os datafiles do banco de dados.

– content.type=recovery
Utilizado por padrão para o diskgroup RECO, que geralmente é utilizado para armazenar a FRA.

– content.type=system
Utilizado por padrão para o diskgroup DBFS_DG , que geralmente é utilizado apra armazenar os arquivos do Oracle RAC.

O ContentType pode ser definido no momento de criar o diskgroup, ou posteriormente através do ALTER DISKGROUP.

SQL> CREATE DISKGROUP DATA NORMAL REDUNDANCY
2    DISK 'o/*/DATA*'
3    ATTRIBUTE 'compatible.rdbms' = '11.2.0.0.0',
4              'compatible.asm' = ''11.2.0.3',
5              'cell.smart_scan_capable' = 'TRUE',
6              'content.type' = 'recovery',
7              'au_size' = '4M';

Ou podemos alterar o CONTENTTYPE via o ALTER DISKGROUP


SQL> ALTER DISKGROUP data SET ATTRIBUTE 'content.type' = 'data';

Assim seguindo as melhores recomendações, podemos alterar o ContentType dos diskgroup DATA, RECO e DBFS_DG criados acima, da seguinte maneira:

SQL> ALTER DISKGROUP DATA SET ATTRIBUTE 'content.type' = 'data';

Diskgroup altered.

SQL> ALTER DISKGROUP RECO SET ATTRIBUTE 'content.type' = 'recovery';

Diskgroup altered.

SQL> ALTER DISKGROUP DBFS_DG SET ATTRIBUTE 'content.type' = 'system';

Diskgroup altered.

Curso de Exadata em Phoenix Arizona com Hans Forbrich
October 10, 2014

Essa semana se resumiu em uma só palavra: Exadata!

Pude participar de um ótimo treinamento de Oracle Exadata Database Machine ministrado em Phoenix – Arizona pelo professor, Oracle ACE Director e grande DBA Hans Forbrich. Hans dispensa apresentações, muitos de vocês já o conhecem pelo seu blog.

O curso abordou 23 tópicos do Exadata em 5 dias, temas como Monitoramento, Performance, Arquitetura, SmartScan,  Patching e Updating foram alguns desses tópicos. Foi um curso muito puxado, devido a vasta quantidade de conteúdo abordado em tão poucos dias.

Mais mesmo assim, sobrou tempo para uma foto com o Hans :)

Hans Forbrich and Flavio Soares Exadata Training

Não poderia de deixar meu muito obrigado a Discover, por proporcionar essa oportunidade e principalmente por acreditar no meu trabalho.

Um caso de estudo do evento Direct Path Reads. Por que ele é tão importante para o Oracle Exadata?
May 29, 2014

Você DBA provavelmente já deve ter ouvido falar do Oracle Smart Scan. Pois bem, o Smart Scan realmente é um dos segredos por trás da extrema velocidade de processamento das instruções dentro do Oracle Exadata Machine. Existe também o conceito de offloading dos dados dentro da arquitetura do Exadata, que refere ao fato do processamento dos dados ser feito a nível da camada de storage (storage layer) e não mais dentro da camada de banco de dados (database layer). O Smart Scan por outro lado é mais focado a nível de SQL e não de dados como o Offloading, mais como podemos ver nos documentos e manuais, a Oracle acabou que juntando esses dois conceitos e chamando apenas de “Smart Scan”.

Apesar de toda velocidade de processamento que a máquina Exadata possuí, ela não seria o que é sem a capacidade de realização de Offloading e Smart Scan. Sem essas features, o Exadata seria apenas mais uma máquina de alto poder de processamento, porém sem grande inteligência de manipulação dos dados … e como vemos, é essa inteligência que faz toda a diferença.

Mais afinal, o que o “Direct Path Reads” tem haver com o Offloading de Dados e o Exadata Smart Scan? A resposta para essa pergunta é simples: O offloading e/ou Smart Scan não acontecerá, caso sua instrução não utilize o Direct Path Reads.

Dois pré-requisitos básicos, são necessários para o Offloading/Smart Scan:

1. Obviamente, realizar a instrução em um storage Exadata.
2. Realizar o “Direct Path Reads” na sua instrução.

É claro que isso envolve algumas restrições, mais basicamente tendo esses requisitos, a sua consulta irá acabar realizando o Smart Scan.


O que é Direct Path Reads?

O Direct Path Reads foi criado pela Oracle para ignorar o Buffer Cache. O Buffer Cache como você já deve saber, é uma área da SGA destinada a manter os blocos recentes lidos, assim todos os usuários conectados na instância é capaz de ler e compartilhar desse cache sem a necessidade de ler esses blocos novamente do disco. Isso é um excelente ganho de performance, já que o evitamos o acesso a disco sempre que uma instrução é realizada. A Oracle fez um excelente trabalho ao longo dos anos, aperfeiçoando cada vez mais esse cache através dos algoritmos LRU e MRU, veja mais aqui: http://docs.oracle.com/cd/B28359_01/server.111/b28318/memory.htm#CNCPT1224

Realmente existe muito mais vantagem do que desvantagem em utilizar o Buffer Cache, porém a grande desvantagem, por ser um processo automático de gerenciamento de Buffer, o Oracle acaba por colocar “sujeiras” dentro desse cache, removendo dados que inclusive eram mais acessados pelas demais sessões. Imagina esse caso por exemplo, um relatório que é disparado uma única vez no mês para cálculos de fechamento que movimenta uma enorme quantidade de dados, por qual razão você gostaria de colocar todos esses dados gerados do relatório dentro do buffer cache do seu banco, sendo que essa instrução será executada apenas uma única vez e não será compartilhado com outras sessões dentro do banco. Inclusive, todo esses dados gerados, pode ser maior do que o próprio buffer cache, causando assim um extremo overhead em remover dados mais acessados e adicionar dados que nunca irá ser acessado. Será um tremendo trabalho em alocar, desalocar e realocar tudo novamente.

Foi aí que surgiu o Direct Path Reads.

O mecanismo de Direct Path Reads já está disponível no kernel do Oracle há muito tempo. Ele foi inicialmente implementado para trabalhar exclusivamente com os processos slaves sempre que uma instrução era disparada via paralelismo. Como os processos paralelos, como via de regra, devem ler grandes quantidades de dados o Direct Path Reads entrou na jogada para ignora completamente o mecanismo padrão do buffer. Foi decidido a partir daí, que os blocos deveriam ser armazenados em suas próprias memórias (PGA) e não mais na SGA quando se utiliza-se a consulta via DPR.

De acordo com o metalink, a partir do Oracle 11gR2, o kernel foi modificado para decidir realizar mais Direct Path Reads do que na versão 10g, ou seja na versão 10g o serial table scans tem muito mais chance de ser realizado no buffer compartilhado (scattered reads) do que na própria memória do processo (direct path reads).


Como identifico o evento Direct Path Reads?

Existem várias formas de se identificar o evento “Direct Path Reads”, uma delas é através das views de wait’s do Oracle, como por exemplo a v$session_wait.

A view v$session_wait mostra sempre o atual evento de espera ocorrido pela sessão. Usando o SQL abaixo, podemos identificar através da coluna EVENT, a utilização do evento “direct path read” para a consulta em questão (sql_id).

SELECT s.sid, w.state, w.event, s.sql_id, s.sql_child_number, 
	w.seq#, w.seconds_in_wait, w.p1text||'= '||w.p1 p1,
	w.p2text||'= '||w.p2 p2, w.p3text||'= '||w.p3 p3
FROM v$session s, v$session_wait w 
WHERE w.sid = s.sid AND w.sid = "";

Vamos a uma prova de teste. A partir de agora, vou utilizar incessantemente o parâmetro oculto chamado “_serial_direct_read” para forçar a utilização do direct reads. Vou falar mais desse parâmetro mais a frente, o importante agora é saber que através dele podemos forçar a utilização do evento Direct Path Reads.

Os testes serão feito através da tabela fss.hsk1. Essa tabela, nada mais é do que uma tabela de teste que sempre utilizo em meus testes com Oracle. A tabela é criada dentro do owner FSS e contém cerca de 4G (você pode mudar o tamanho da tabela criada, alterando a quantidade de linhas inseridas na tabela, veja os comentários dentro do script). Através dos links abaixo, você poderá utilizar também a mesma tabela que vou demonstrar os testes a seguir.

Criação do usuário FSS: fss_user.sql
Criação das tabelas do usuário FSS: fss_create_tables.sql

Lembrando também, que todos esses testes foram feitos em um Oracle 11.2.0.3.

Identificando o uso do Direct Read, através da view de espera v$session_wait

Vamos ao teste que interessa. Com a sessão 1, iremos executar a seguinte instrução SQL na tabela fss.hsk1. Primeiro vamos definir o parâmetro oculto _serial_direct_read para ALWAYS, dessa forma eu estou forçando com que todas as minhas consultas sejam executadas via “Direct Path Reads”

SQL> ALTER SESSION SET "_serial_direct_read"=ALWAYS;

Session altered.

SQL> select avg(length(col1) + length(col2)) from fss.hsk1 where col3 > 1;

Rapidamente, enquanto executa a consulta acima, com a sessão 2, vamos ver através da v$session_wait que o evento de espera atual é o “direct path”:

--> SESSÃO 2

SQL> SELECT 
1  s.sid, w.state, w.event, s.sql_id, s.sql_child_number, w.seq#, w.seconds_in_wait, 
2  w.p1text||'= '||w.p1 p1, w.p2text||'= '||w.p2 p2, w.p3text||'= '||w.p3 p3
3  FROM v$session s, v$session_wait w
4  WHERE w.sid = s.sid AND w.sid=152;
		
     SID STATE               EVENT                        SQL_ID          CH#      SEQ# SECONDS_IN_WAIT P1                      P2                 P3
-------- ------------------- ---------------------------- ------------- ----- --------- --------------- ----------------------- ------------------ -----------------
     152 WAITED SHORT TIME   direct path read             36b84f5s2yj4a     0     36081               0 file number= 5          first dba= 3307    block cnt= 1

1 row selected.

SQL> /

     SID STATE               EVENT                        SQL_ID          CH#      SEQ# SECONDS_IN_WAIT P1                      P2                 P3
-------- ------------------- ---------------------------- ------------- ----- --------- --------------- ----------------------- ------------------ -----------------
     152 WAITED SHORT TIME   direct path read             74kfrv5xqpbxf     0     52652               0 file number= 4          first dba= 157056  block cnt= 128

1 row selected.

SQL> /

     SID STATE               EVENT                        SQL_ID          CH#      SEQ# SECONDS_IN_WAIT P1                      P2                 P3
-------- ------------------- ---------------------------- ------------- ----- --------- --------------- ----------------------- ------------------ -----------------
     152 WAITED SHORT TIME   direct path read             74kfrv5xqpbxf     0     56786               0 file number= 4          first dba= 63360   block cnt= 128

Vamos agora voltar para a sessão 1, e mudar o parâmetro oculto “_serial_direct_read” para NEVER, e executar a mesma consulta, observe agora que não vamos mais ter o evento direct path read, mais sim o db file scattered read, ou seja a nossa consulta estará alocando todo os dados para a SGA:

--> SESSÃO 1

SQL> ALTER SESSION SET "_serial_direct_read"=NEVER;

Session altered.

SQL> select avg(length(col1) + length(col2)) from fss.hsk1 where col3 > 1;
--> SESSÃO 2

SQL> SELECT 
1  s.sid, w.state, w.event, s.sql_id, s.sql_child_number, w.seq#, w.seconds_in_wait, 
2  w.p1text||'= '||w.p1 p1, w.p2text||'= '||w.p2 p2, w.p3text||'= '||w.p3 p3
3  FROM v$session s, v$session_wait w
4  WHERE w.sid = s.sid AND w.sid=152;

     SID STATE               EVENT                     SQL_ID          CH#      SEQ# SECONDS_IN_WAIT P1          P2               P3
-------- ------------------- ------------------------- ------------- ----- --------- --------------- ----------- ---------------- --------------
     152 WAITED SHORT TIME   db file scattered read    74kfrv5xqpbxf     0     23902               0 file#= 4    block#= 37124    blocks= 128


1 row selected.

SQL> /

     SID STATE               EVENT                     SQL_ID          CH#      SEQ# SECONDS_IN_WAIT P1          P2               P3
-------- ------------------- ------------------------- ------------- ----- --------- --------------- ----------- ---------------- --------------
     152 WAITED SHORT TIME   db file scattered read    74kfrv5xqpbxf     0     26483               0 file#= 4    block#= 26500    blocks= 128


1 row selected.

SQL> /

     SID STATE               EVENT                     SQL_ID          CH#      SEQ# SECONDS_IN_WAIT P1          P2               P3
-------- ------------------- ------------------------- ------------- ----- --------- --------------- ----------- ---------------- --------------
     152 WAITED SHORT TIME   db file scattered read    74kfrv5xqpbxf     0     26977               0 file#= 4    block#= 80004    blocks= 128

Identificando o uso do Direct Read, através das views de estatísticas

Podemos também identificar o evento direct path através das views v$sesstat e v$mystat, no caso a v$sesstat representa todas as estatísticas de todas as sessões do banco, já a v$mystat representa apenas as estatísticas da minha atual sessão. Diferente da view v$session_wait que mostra o estado atual da sessão, as views de estatísticas são acumulativas para todas as estatísticas. Nesse caso, a estatística chamada “table scans (direct read)” representa a quantidade que o evento direct path foi utilizado dentre todas as instrução realizadas para a mesma sessão.

Pelo motivo das views de estatísticas v$sesstat e v$mystat serem acumulativas, precisamos realizar o antes e o depois e termos um delta para a comparação se aquela sessão sofreu ou não um aumento das estatísticas.

Podemos realizar o teste da seguinte maneira:

SQL> col value format 999999999999999
SQL> SELECT s.name, m.value
  2  FROM v$mystat m, v$statname s
  3  WHERE m.statistic# = s.statistic#
  4  AND s.name = 'table scans (direct read)';

NAME                                                          VALUE
-------------------------------------------------- ----------------
table scans (direct read)                                         0

1 row selected.

Veja acima, que a minha sessão está com a estatística “table scans (direct read)” com o valor zerado. Isso mostra que a sessão até o momento não realizou nenhuma leitura de bloco através do evento Direct Path Reads.

Vamos agora, alterar o parâmetro oculto “_SERIAL_DIRECT_READ” para NEVER, afim de forçar a leitura via FULL TABLE SCANS na tabela fss.hsk1 sem a utilização do DPR.

SQL> ALTER SESSION SET "_serial_direct_read"=NEVER;

Session altered.

SQL> select avg(length(col1)) from fss.hsk1 where col3 > 1;

AVG(LENGTH(COL1))
-----------------
       175.015666

1 row selected.

Após realizar a consulta, vamos novamente realizar a consulta para verificar o valor da estatística “table scans (direct read)”.

SQL> SELECT s.name, m.value
  2  FROM v$mystat m, v$statname s
  3  WHERE m.statistic# = s.statistic#
  4  AND s.name = 'table scans (direct read)';

NAME                                                          VALUE
-------------------------------------------------- ----------------
table scans (direct read)                                         0

1 row selected.

Veja que a estatística continua com o valor zero. Vamos executar a mesma instrução SQL, porém agora forçando o uso do Direct Reads.

SQL> ALTER SESSION SET "_serial_direct_read"=ALWAYS;

Session altered.

SQL> select avg(length(col1)) from fss.hsk1 where col3 > 1;

AVG(LENGTH(COL1))
-----------------
       175.015666

1 row selected.

Com a execução acima, voltemos a verificar o valor da estatística “table scans (direct read)”.

SQL> SELECT s.name, m.value
  2  FROM v$mystat m, v$statname s
  3  WHERE m.statistic# = s.statistic#
  4  AND s.name = 'table scans (direct read)';

NAME                                                          VALUE
-------------------------------------------------- ----------------
table scans (direct read)                                         1

Como você pode ver, a estatística passo de 0 para 1, isso aconteceu porque a instrução foi executada via Direct Path Reads. Para cada consulta então que realizo o evento de Direct Reads, o valor de 1 é adicionado a estatística “table scans (direct read)”. O mesmo procedimento é válido também para a estatística “index fast full scans (direct read)”

SQL> select avg(length(col1)) from fss.hsk1 where col3 > 1;

AVG(LENGTH(COL1))
-----------------
       175.015666

1 row selected.

Veja novamente que vamos ter a estatística “table scans (direct read)” com o valor agora de 2.

SQL> SELECT s.name, m.value
  2  FROM v$mystat m, v$statname s
  3  WHERE m.statistic# = s.statistic#
  4  AND s.name = 'table scans (direct read)';

NAME                                                          VALUE
-------------------------------------------------- ----------------
table scans (direct read)                                         2

Identificando o uso do Direct Read, através do evento de 10046

Um método muito rápido de identificar também se sua consulta está utilizando “db file scattered read” ao invés de “direct path reads” é através do evento 10046.

Setando esse evento para a sessão, e observando o trace, podemos identificar facilmente se a consulta está sendo feita via “db file scattered read” ou “direct path reads”.

Veja o exemplo abaixo:

SQL> ALTER SESSION SET EVENTS '10046 trace name context forever, level 12'

Session altered.

Com a sessão alterada para o evento 10046, vamos identificar o arquivo de trace da sessão:

SQL> SELECT tracefile 
2    FROM v$process WHERE addr = (
3        SELECT paddr FROM v$session 
4        WHERE sid = (SELECT sid FROM v$mystat WHERE rownum < 2)
5    );

TRACEFILE
----------------------------------------------------------------------------
/u01/app/oracle/diag/rdbms/dbtst/dbtst/trace/dbtst_ora_60173.trc

Com os mesmos testes realizados acima, onde forçamos a utilização do Direct Reads, seu arquivo de trace irá se parecer como a listagem abaixo para a instrução com o _serial_direct_read para ALWAYS.

WAIT #140675437128128: nam='direct path read' ela= 780 file number=6 first dba=42624 block cnt=128 obj#=76837 tim=1397656466688788
WAIT #140675437128128: nam='direct path read' ela= 824 file number=6 first dba=42752 block cnt=128 obj#=76837 tim=1397656466692249
WAIT #140675437128128: nam='direct path read' ela= 831 file number=6 first dba=42880 block cnt=128 obj#=76837 tim=1397656466696735
WAIT #140675437128128: nam='direct path read' ela= 757 file number=6 first dba=43008 block cnt=128 obj#=76837 tim=1397656466701094
WAIT #140675437128128: nam='direct path read' ela= 765 file number=6 first dba=43136 block cnt=128 obj#=76837 tim=1397656466705783
WAIT #140675437128128: nam='direct path read' ela= 574 file number=6 first dba=43268 block cnt=124 obj#=76837 tim=1397656466708691
WAIT #140675437128128: nam='direct path read' ela= 590 file number=6 first dba=43392 block cnt=128 obj#=76837 tim=1397656466711190
WAIT #140675437128128: nam='direct path read' ela= 568 file number=6 first dba=43520 block cnt=128 obj#=76837 tim=1397656466713200
WAIT #140675437128128: nam='direct path read' ela= 610 file number=6 first dba=43648 block cnt=128 obj#=76837 tim=1397656466715460
WAIT #140675437128128: nam='direct path read' ela= 562 file number=6 first dba=43776 block cnt=128 obj#=76837 tim=1397656466718398
WAIT #140675437128128: nam='direct path read' ela= 524 file number=6 first dba=43904 block cnt=128 obj#=76837 tim=1397656466720576
WAIT #140675437128128: nam='direct path read' ela= 489 file number=6 first dba=44032 block cnt=128 obj#=76837 tim=1397656466723296
WAIT #140675437128128: nam='direct path read' ela= 792 file number=6 first dba=44160 block cnt=128 obj#=76837 tim=1397656466726823
WAIT #140675437128128: nam='direct path read' ela= 726 file number=6 first dba=44292 block cnt=124 obj#=76837 tim=1397656466731733
WAIT #140675437128128: nam='direct path read' ela= 782 file number=6 first dba=44416 block cnt=128 obj#=76837 tim=1397656466736128
WAIT #140675437128128: nam='direct path read' ela= 786 file number=6 first dba=44544 block cnt=128 obj#=76837 tim=1397656466740659
WAIT #140675437128128: nam='direct path read' ela= 621 file number=6 first dba=44672 block cnt=128 obj#=76837 tim=1397656466743702
WAIT #140675437128128: nam='direct path read' ela= 808 file number=6 first dba=44800 block cnt=128 obj#=76837 tim=1397656466747454
WAIT #140675437128128: nam='direct path read' ela= 568 file number=6 first dba=44928 block cnt=128 obj#=76837 tim=1397656466751477
WAIT #140675437128128: nam='direct path read' ela= 553 file number=6 first dba=45056 block cnt=128 obj#=76837 tim=1397656466753675
WAIT #140675437128128: nam='direct path read' ela= 579 file number=6 first dba=45184 block cnt=128 obj#=76837 tim=1397656466758527
WAIT #140675437128128: nam='direct path read' ela= 610 file number=6 first dba=45316 block cnt=124 obj#=76837 tim=1397656466761760
WAIT #140675437128128: nam='direct path read' ela= 768 file number=6 first dba=45440 block cnt=128 obj#=76837 tim=1397656466765429
WAIT #140675437128128: nam='direct path read' ela= 751 file number=6 first dba=45568 block cnt=128 obj#=76837 tim=1397656466768958
WAIT #140675437128128: nam='direct path read' ela= 757 file number=6 first dba=45696 block cnt=128 obj#=76837 tim=1397656466772449
FETCH #140675437128128:c=342947,e=1194482,p=45285,cr=45289,cu=0,mis=0,r=1,dep=0,og=1,plh=3450470040,tim=1397656466776035
STAT #140675437128128 id=1 cnt=1 pid=0 pos=1 obj=0 op='SORT AGGREGATE (cr=45289 pr=45285 pw=0 time=1194103 us)'
STAT #140675437128128 id=2 cnt=799999 pid=1 pos=1 obj=76837 op='TABLE ACCESS FULL HSK1 (cr=45289 pr=45285 pw=0 time=1363830 us cost=12370 size=145598544 card=799992)'
WAIT #140675437128128: nam='SQL*Net message from client' ela= 1640 driver id=1413697536 #bytes=1 p3=0 obj#=76837 tim=1397656466782990
FETCH #140675437128128:c=0,e=223,p=0,cr=0,cu=0,mis=0,r=0,dep=0,og=0,plh=3450470040,tim=1397656466785440
WAIT #140675437128128: nam='SQL*Net message to client' ela= 4 driver id=1413697536 #bytes=1 p3=0 obj#=76837 tim=1397656466788033

Agora a mesma execução sem a utilização do Direct Reads, deverá se parecer com o seguinte trace:

(Observe a grande quantidade de "db file scattered read")

WAIT #140675437130048: nam='db file scattered read' ela= 774 file#=6 block#=43396 blocks=128 obj#=76837 tim=1397656143526663
WAIT #140675437130048: nam='db file scattered read' ela= 476 file#=6 block#=43524 blocks=128 obj#=76837 tim=1397656143536192
WAIT #140675437130048: nam='db file scattered read' ela= 618 file#=6 block#=43652 blocks=128 obj#=76837 tim=1397656143545942
WAIT #140675437130048: nam='db file scattered read' ela= 569 file#=6 block#=43780 blocks=128 obj#=76837 tim=1397656143555649
WAIT #140675437130048: nam='db file scattered read' ela= 504 file#=6 block#=43908 blocks=128 obj#=76837 tim=1397656143564865
WAIT #140675437130048: nam='db file scattered read' ela= 817 file#=6 block#=44036 blocks=128 obj#=76837 tim=1397656143576862
WAIT #140675437130048: nam='db file scattered read' ela= 500 file#=6 block#=44164 blocks=124 obj#=76837 tim=1397656143589249
WAIT #140675437130048: nam='db file scattered read' ela= 721 file#=6 block#=44292 blocks=128 obj#=76837 tim=1397656143602144
WAIT #140675437130048: nam='db file scattered read' ela= 597 file#=6 block#=44420 blocks=128 obj#=76837 tim=1397656143612393
WAIT #140675437130048: nam='db file scattered read' ela= 710 file#=6 block#=44548 blocks=128 obj#=76837 tim=1397656143622807
WAIT #140675437130048: nam='db file scattered read' ela= 790 file#=6 block#=44676 blocks=128 obj#=76837 tim=1397656143631916
WAIT #140675437130048: nam='db file scattered read' ela= 518 file#=6 block#=44804 blocks=128 obj#=76837 tim=1397656143640901
WAIT #140675437130048: nam='db file scattered read' ela= 450 file#=6 block#=44932 blocks=128 obj#=76837 tim=1397656143649894
WAIT #140675437130048: nam='db file scattered read' ela= 998 file#=6 block#=45060 blocks=128 obj#=76837 tim=1397656143661462
WAIT #140675437130048: nam='db file scattered read' ela= 428 file#=6 block#=45188 blocks=124 obj#=76837 tim=1397656143671014
WAIT #140675437130048: nam='db file scattered read' ela= 537 file#=6 block#=45316 blocks=128 obj#=76837 tim=1397656143679979
WAIT #140675437130048: nam='db file scattered read' ela= 809 file#=6 block#=45444 blocks=128 obj#=76837 tim=1397656143705089
WAIT #140675437130048: nam='db file scattered read' ela= 743 file#=6 block#=45572 blocks=128 obj#=76837 tim=1397656143714724
WAIT #140675437130048: nam='db file scattered read' ela= 742 file#=6 block#=45700 blocks=124 obj#=76837 tim=1397656143752173
FETCH #140675437130048:c=13221989,e=13812881,p=45286,cr=45298,cu=0,mis=0,r=1,dep=0,og=1,plh=3450470040,tim=1397656143762546
STAT #140675437130048 id=1 cnt=1 pid=0 pos=1 obj=0 op='SORT AGGREGATE (cr=45298 pr=45286 pw=0 time=13812802 us)'
STAT #140675437130048 id=2 cnt=799999 pid=1 pos=1 obj=76837 op='TABLE ACCESS FULL HSK1 (cr=45298 pr=45286 pw=0 time=7547357 us cost=12370 size=145598544 card=799992)'
WAIT #140675437130048: nam='SQL*Net message from client' ela= 1056 driver id=1413697536 #bytes=1 p3=0 obj#=76837 tim=1397656143767562
FETCH #140675437130048:c=0,e=566,p=0,cr=0,cu=0,mis=0,r=0,dep=0,og=0,plh=3450470040,tim=1397656143768778
WAIT #140675437130048: nam='SQL*Net message to client' ela= 4 driver id=1413697536 #bytes=1 p3=0 obj#=76837 tim=1397656143770042

Identificando o uso do Direct Read, via Oracle Internals (apenas para Oracle Geek guys : )

O evento Direct Path Reads é realizado através da função do sistema operacional chamada kcbldrget, que significa Kernel Block Direct Read Get.

Para identificar o uso do Direct Path Reads, basta identificar se a função kcbldrget foi disparada do processo do sistema operacional. Isso é possível através do comando pstack do Linux. Com esse comando, podemos identificar stack trace (pila do trace) da execução do processo, ou seja, todo os caminhos via chamadas de SO que o processo passou.

Através do SPID, podemos executar o seguinte procedimento após a execução do mesmo SQL com o parâmetro oculto "_serial_direct_read" para ALWAYS, forçando assim a execução via DPR. No momento da execução, conectado no sistema operacional (no meu caso o Linux), realizamos o comando pstack apontando para o SPID da SESSÃO B, que no caso é o número 50834.

[root@oralnx001 ~]# pstack 50834
#0  0x0000003f1960ee33 in __pread_nocancel () from /lib64/libpthread.so.0
#1  0x00000000093521fb in skgfqio ()
#2  0x0000000009222e03 in ksfd_skgfqio ()
#3  0x0000000009222b68 in ksfdgo ()
#4  0x000000000234e30e in ksfdaio ()
#5  0x00000000021ef424 in kcflbi ()
#6  0x0000000000ebc90a in kcbldio ()
#7  0x0000000000ebba84 in kcblrs ()
#8  0x0000000000ebb165 in kcblgt ()
#9  0x0000000000eb9941 in kcbldrget ()
#10 0x000000000907b554 in kcbgtcr ()
#11 0x000000000905ff29 in ktrget3 ()
#12 0x000000000905f784 in ktrget2 ()
#13 0x0000000009016ead in kdst_fetch ()
#14 0x0000000000c87f89 in kdstf00000010000kmP ()
#15 0x0000000008ffc6e8 in kdsttgr ()
#16 0x0000000009245970 in qertbFetch ()
#17 0x000000000926cc1f in qergsFetch ()
#18 0x0000000009136e83 in opifch2 ()
#19 0x00000000091404e8 in opiefn0 ()
#20 0x000000000914dfc4 in opipls ()
#21 0x000000000913d4d4 in opiodr ()
#22 0x00000000091e7043 in rpidrus ()
#23 0x0000000009354764 in skgmstack ()
#24 0x00000000091e8b5e in rpiswu2 ()
#25 0x00000000091e8188 in rpidrv ()
#26 0x00000000091d14d1 in psddr0 ()
#27 0x00000000091d10e7 in psdnal ()
#28 0x0000000003736b52 in pevm_EXIM ()
#29 0x000000000372831b in pfrinstr_EXIM ()
#30 0x00000000093eae35 in pfrrun_no_tool ()
#31 0x00000000093e9509 in pfrrun ()
#32 0x00000000093f0b61 in plsql_run ()
#33 0x000000000371cb6b in peicnt ()
#34 0x0000000002fa18b1 in kkxexe ()
#35 0x00000000091450f9 in opiexe ()
#36 0x0000000001b5cb07 in kpoal8 ()
#37 0x000000000913d4d4 in opiodr ()
#38 0x00000000092e02d6 in ttcpip ()
#39 0x00000000017ece01 in opitsk ()
#40 0x00000000017f19fa in opiino ()
#41 0x000000000913d4d4 in opiodr ()
#42 0x00000000017e8d3c in opidrv ()
#43 0x0000000001de40cb in sou2o ()
#44 0x0000000000a0b0c1 in opimai_real ()
#45 0x0000000001dea03c in ssthrdmain ()
#46 0x0000000000a0b02d in main ()

Esse monte de código acima, representa cada chamada de sistema operacional feita pelo processo em execução do SPID 50834. Como você pode ver na linha em negrito, temos uma chamada para o sistema operacional para a função kcbldrget, que significa que a instrução executada por esse processo utilizou o método Direct Reads :)

Condições para se utilizar o Direct Path Reads

Como mencionei acima, a partir do Oracle 11g é muito mais provável que sua consulta utilize o direct path reads, porém existe maneiras de "tentar" identificar se sua consulta irá ou não, utilizar automaticamente o evento.

Além dos processos parallel slaves que são sempre executados via direct path reads, para instruções não paralelas elas funcionam em certas condições. O calculo é baseado em diversos fatores como a quantidade de blocos do objeto e o tamanho do buffer. Existe ainda o parâmetro oculto _SMALL_TABLE_THRESHOLD que determina a quantidade mínima de blocos que uma tabela deve ter para a utilização do DPR. O valor default desse parâmetro é 2680, o que significa que caso uma tabela tenha a quantidade de blocos maior que 2680, o seu full table scan será mais favorável a utilizar direct path reads.

Veja um exemplo:

SQL> show parameter _small_table_threshold

NAME                           VALUE
------------------------------ -------
_small_table_threshold         2680

Acima como se pode ver, o parâmetro oculto "_SMALL_TABLE_THRESHOLD" está definido para o valor default de 2680 blocos. Vou agora, criar uma tabela buscando todos os dados da view dba_objects.

SQL> create table t as select * from dba_objects;

Table created.

SQL> select blocks from dba_segments where segment_name='T';

    BLOCKS
----------
      1152

Observe que a nossa tabela ficou com 1152 blocos, bem abaixo do valor do parâmetro _small_table_threshold. Vamos executar um FULL TABLE SCAN de encontro a tabela e verificar se foi realizado automaticamente o direct path reads de encontro a tabela.

SQL> select s.name, m.value 
2    from v$statname s, v$mystat m 
3    where m.statistic#=s.statistic# 
4    and s.name = 'table scans (direct read)';

NAME                                                    VALUE
-------------------------------------------------- ----------
table scans (direct read)                                   0

1 rows selected.

SQL> select count(*) from t;

  COUNT(*)
----------
     75214

1 row selected.

SQL> select 
2    s.name, m.value 
3    from v$statname s, v$mystat m 
4    where m.statistic#=s.statistic# 
5    and s.name = 'table scans (direct read)';

NAME                                                    VALUE
-------------------------------------------------- ----------
table scans (direct read)                                   0

1 rows selected.

Veja acima, que a estatística table scans (direct read) não foi alterado. Vamos aumentar a quantidade de blocos da tabela e realizar o mesmo teste.

SQL> insert into t (select * from t);

75214 rows created.

SQL> insert into t (select * from t);

150428 rows created.

SQL> commit;

Commit complete.

SQL> select blocks from dba_segments where segment_name='T';

    BLOCKS
----------
      4352

1 row selected.

Agora sim temos blocos acima da quantidade necessária especificada pelo parâmetro _small_table_threshold. Antes de fazer o teste, vamos limpar a área de memória do Oracle para que o teste anterior não interfira nesse novo.

SQL> ALTER SYSTEM FLUSH BUFFER_CACHE;

System altered.

SQL> ALTER SYSTEM FLUSH SHARED_POOL;

System altered.

Feito a limpeza, vamos checar novamente a mesma consulta:

SQL> select count(*) from t;

  COUNT(*)
----------
    300856

1 row selected.

SQL> select 
2      s.name, m.value 
3      from v$statname s, v$mystat m 
4      where m.statistic#=s.statistic# 
5      and s.name = 'table scans (direct read)';

NAME                                                    VALUE
-------------------------------------------------- ----------
table scans (direct read)                                   1

1 row selected.

Agora sim a nossa consulta foi realizada via direct read.

Um outra ponto muito importante para o direct reads, é que ele apenas funciona quando um full scan acontece, ou seja, a função "direct path reads" (kcbldrget) somente é chamada após um full scans. Note que o termo full scans representa os termos TABLE ACCESS FULL e INDEX FAST FULL SCAN no seu plano de execução. Dessa forma, pelo simples fato de uma operação em sua consulta a uma tabela for do tipo UNIQUE SCAN, o Direct Path Reads irá acontecer.

Processos Parallel e o Direct Path Reads

Os processos paralelos são outro ponto importante, como comentei acima, não importa que tipo de processo parallel você tem utilizado (AUTO DOP, IN MEMORY PARALELL, QUEUEING PARALLEL, etc ..) ou o tipo de Degree, a sua consulta sempre que utilizar a operação FULL SCANS ela irá ser feita via Direct Path Reads.

Veja no exemplo abaixo, que mesmo definindo o parâmetro "_serial_direct_read" para "never" vamos ter nossa consulta paralela utilizando o direct reads:

SQL> ALTER SESSION SET "_serial_direct_read"=never;

Session altered.

SQL> select 
2    s.name, m.value 
3    from v$statname s, v$mystat m 
4    where m.statistic#=s.statistic#  
5    and s.name = 'table scans (direct read)';

NAME                                                    VALUE
-------------------------------------------------- ----------
table scans (direct read)                          0

1 row selected.

SQL> select count(*) from t;

  COUNT(*)
----------
    300856


1 row selected.

SQL> select 
2    s.name, m.value 
3    from v$statname s, v$mystat m 
4    where m.statistic#=s.statistic#  
5    and s.name = 'table scans (direct read)';

NAME                                                  VALUE
-------------------------------------------------- --------
table scans (direct read)                                 0

1 row selected.

SQL> alter table t parallel 2;

Table altered.

SQL> select count(*) from t;

  COUNT(*)
----------
    300856

1 row selected.

SQL> select 
2    s.name, m.value 
3    from v$statname s, v$mystat m 
4    where m.statistic#=s.statistic#  
5    and s.name = 'table scans (direct read)';

NAME                                                  VALUE
-------------------------------------------------- --------
table scans (direct read)                                26


1 row selected.

Ou veja, processos parallel ignoram completamente o parâmetro _serial_direct_read.


Um pouco sobre o parâmetro _serial_direct_read

Você já deve ter entendido bem a utilização do parâmetro oculto _serial_direct_read. Ele força ou ignora a utilização do "Direct Path Reads". Vale a pena lembrar que por se tratar de um parâmetro oculto, não é nem um pouco legal você definir em seu ambiente de produção sem antes consultar a Oracle.

O parâmetro _serial_direct_read ele possuiu esses valores a partir do Oracle 11g:

1 ALWAYS
2 AUTO
3 NEVER
4 TRUE
5 FALSE

Para cada um deles ele trata de um modo diferente a instrução via "Direct Path Reads". O modo default dele é AUTO, o que significa que ele será automático, seguindo toda aquela regra que já expliquei sobre a quantidade e blocos e vários outros fatores.

Através do suporte da Oracle do documento "Exadata Smartscan Is Not Being Used On Insert As Select (Doc ID 1348116.1)", a Oracle descreve um problema em que o Smartscan não acontece devida a não execução da instrução via "Direct Path Reads" (um dos caso mais comum de falta de performance do Exadata). Na nota ele informa o uso do parâmetro _serial_direct_read para TRUE como a resolução do problema.

....

Por hoje é isso, espero que tenha consigo demonstrar a importante do Direct Path Reads para o Oracle. Para os próximos posts, quero mostrar um pouco mais da utilização do Direct Path Reads junto com as features do Exadata (Storage Index, Predicate Filtering, Column Projection, etc ...). Um abraço e até lá :)

Exadata Write-Back Flash Cache
February 25, 2014

A feature Write-Back Flash Cache vem através da tecnologia Exadata Smart Flash Cache do Exadata. Com o Write-Back Flash Cache é possível utilizar o Exadata Smart Flash Cache também para realizar o cache das escritas realizadas no bloco do banco de dados.

Principalmente para grandes escalas de bancos OLTP ou cargas Batch’s, o Write-Back torna o Smart Flash Cache do Exadata muito mais atrativo, pois elimina qualquer gargalo de disco existente passando diretamente o I/O para a PCI flash. Para se ter uma ideia de como é rápido essa tecnologia, utilizando um single full rack Exadata Database Machine X4-2, ele ultrapassa 1.960.00 escritas I/O por segundos levando sem consideração um bloco de 8K, e ele é totalmente automático e transparente e lhe dá algumas opções de configuração.

O Write-Back também está disponível para as versões X2, porém a versão mínima do Oracle Exadata Storage Server Software deve ser 11.2.3.2.1 e certifique-se que tanto o software de grid infrastructure and database homes estão no patch 11.2.0.3.9 ou maior.

A pergunta que fica é: Devo habilitar o write flash cache no meu Exadata? Bom, por incrível que pareça, o write-back não vem habilitado por default no Exadata. Após rodar o exaconf se você conectar nos seus cell’s você vai notar que o Smart Flash Cache não está em modo Write-Back. A Oracle literalmente deixa a seu critério: habilitar ou não habilitar. Minha opinião é que essa feature, assim como algumas outras, deveriam ser quase que um pré-requisitos de qualquer configuração, devida as vantagens delas oferecidas, é quase que o mesmo caso do parâmetro oculto _serial_direct_read no Exadata … aguarde o próximo post :) … De qualquer maneira, essa feature é interessante caso você tenha uma intensa escrita em disco e/ou se você encontra significantes eventos do tipo “free buffers waits” em seu AWR.

Para você determinar se a sua celula está em modo WriteBack execute o seguinte comando:

Onde:
flashCacheMode: WriteBack —> seu write back flash cache está habilitado
flashCacheMode: WriteThrough —> seu write back flash cache não está habilitado

No exemplo abaixo as 3 células do Exadata ex01dev2550, estão com o flashCacheMode em modo WriteThrough.

[root@ex01dev2550 ~ ]# dcli -l root -g /opt/oracle.SupportTools/onecommand/cell_group cellcli -e "list cell detail | grep flashCacheMode"
ex01celd2550: flashCacheMode:            writethrough
ex01celd2550: flashCacheMode:            writethrough
ex01celd2550: flashCacheMode:            writethrough

Para habilitar o write back é necessário mudar o flashCacheMode de cada célula do seu Exadata. No MOS (My Oracle Support: http://support.oracle.com) a Oracle disponibiliza um script chamado de setWBFC.sh para a mudança do tipo do Flash Cache do seu Exadata. Porém isso pode ser facilmente realizar de forma manual.

A maneira que vou mostrar aqui é utilizando o ROLLING método, ou seja, não causa parada no seu ambiente. O segredo de utilizar o modo ROLLING é que você deve executar os passos abaixo em uma célula por vez.

Tenho as seguintes células: ex01celd2550, ex02celd2550 e ex03celd2550.

Vou iniciar então, com a cell ex01celd2550 e depois seguir com as outras.

O primeiro passo é remover todos os discos do tipo flashcache mode na célula ex01celd2550.

[root@ex01celd2550 ~]# cellcli -e drop flashcache
Flash cache ex01celd2550_FLASHCACHE successfully dropped

Agora, vamos checar se o ASM vai conseguir gerenciar os discos dessa celula, caso eles fiquem OFFLINE. O seguinte comando deve retornar ‘Yes’ para os griddisks:

[root@ex01celd2550 ~]# cellcli -e list griddisk attributes name,asmmodestatus,asmdeactivationoutcome
         DATA_CD_00_ex01celd2550    ONLINE  Yes
         DATA_CD_01_ex01celd2550    ONLINE  Yes
         DATA_CD_02_ex01celd2550    ONLINE  Yes
         DATA_CD_03_ex01celd2550    ONLINE  Yes
         DATA_CD_04_ex01celd2550    ONLINE  Yes
         DATA_CD_05_ex01celd2550    ONLINE  Yes
         DATA_CD_06_ex01celd2550    ONLINE  Yes
         DATA_CD_07_ex01celd2550    ONLINE  Yes
         DATA_CD_08_ex01celd2550    ONLINE  Yes
         DATA_CD_09_ex01celd2550    ONLINE  Yes
         DATA_CD_10_ex01celd2550    ONLINE  Yes
         DATA_CD_11_ex01celd2550    ONLINE  Yes
         SYSTEMDG_CD_02_ex01celd2550      ONLINE  Yes
         SYSTEMDG_CD_03_ex01celd2550      ONLINE  Yes
         SYSTEMDG_CD_04_ex01celd2550      ONLINE  Yes
         SYSTEMDG_CD_05_ex01celd2550      ONLINE  Yes
         SYSTEMDG_CD_06_ex01celd2550      ONLINE  Yes
         SYSTEMDG_CD_07_ex01celd2550      ONLINE  Yes
         SYSTEMDG_CD_08_ex01celd2550      ONLINE  Yes
         SYSTEMDG_CD_09_ex01celd2550      ONLINE  Yes
         SYSTEMDG_CD_10_ex01celd2550      ONLINE  Yes
         SYSTEMDG_CD_11_ex01celd2550      ONLINE  Yes
         RECO_CD_00_ex01celd2550    ONLINE  Yes
         RECO_CD_01_ex01celd2550    ONLINE  Yes
         RECO_CD_02_ex01celd2550    ONLINE  Yes
         RECO_CD_03_ex01celd2550    ONLINE  Yes
         RECO_CD_04_ex01celd2550    ONLINE  Yes
         RECO_CD_05_ex01celd2550    ONLINE  Yes
         RECO_CD_06_ex01celd2550    ONLINE  Yes
         RECO_CD_07_ex01celd2550    ONLINE  Yes
         RECO_CD_08_ex01celd2550    ONLINE  Yes
         RECO_CD_09_ex01celd2550    ONLINE  Yes
         RECO_CD_10_ex01celd2550    ONLINE  Yes
         RECO_CD_11_ex01celd2550    ONLINE  Yes

Com o ASM garantindo que ficará tudo bem, vamos inativar todos os gridisks dessa célula:

[root@ex01celd2550 ~]# cellcli -e alter griddisk all inactive
GridDisk DATA_CD_00_ex01celd2550 successfully altered
GridDisk DATA_CD_01_ex01celd2550 successfully altered
GridDisk DATA_CD_02_ex01celd2550 successfully altered
GridDisk DATA_CD_03_ex01celd2550 successfully altered
GridDisk DATA_CD_04_ex01celd2550 successfully altered
GridDisk DATA_CD_05_ex01celd2550 successfully altered
GridDisk DATA_CD_06_ex01celd2550 successfully altered
GridDisk DATA_CD_07_ex01celd2550 successfully altered
GridDisk DATA_CD_08_ex01celd2550 successfully altered
GridDisk DATA_CD_09_ex01celd2550 successfully altered
GridDisk DATA_CD_10_ex01celd2550 successfully altered
GridDisk DATA_CD_11_ex01celd2550 successfully altered
GridDisk SYSTEMDG_CD_02_ex01celd2550 successfully altered
GridDisk SYSTEMDG_CD_03_ex01celd2550 successfully altered
GridDisk SYSTEMDG_CD_04_ex01celd2550 successfully altered
GridDisk SYSTEMDG_CD_05_ex01celd2550 successfully altered
GridDisk SYSTEMDG_CD_06_ex01celd2550 successfully altered
GridDisk SYSTEMDG_CD_07_ex01celd2550 successfully altered
GridDisk SYSTEMDG_CD_08_ex01celd2550 successfully altered
GridDisk SYSTEMDG_CD_09_ex01celd2550 successfully altered
GridDisk SYSTEMDG_CD_10_ex01celd2550 successfully altered
GridDisk SYSTEMDG_CD_11_ex01celd2550 successfully altered
GridDisk RECO_CD_00_ex01celd2550 successfully altered
GridDisk RECO_CD_01_ex01celd2550 successfully altered
GridDisk RECO_CD_02_ex01celd2550 successfully altered
GridDisk RECO_CD_03_ex01celd2550 successfully altered
GridDisk RECO_CD_04_ex01celd2550 successfully altered
GridDisk RECO_CD_05_ex01celd2550 successfully altered
GridDisk RECO_CD_06_ex01celd2550 successfully altered
GridDisk RECO_CD_07_ex01celd2550 successfully altered
GridDisk RECO_CD_08_ex01celd2550 successfully altered
GridDisk RECO_CD_09_ex01celd2550 successfully altered
GridDisk RECO_CD_10_ex01celd2550 successfully altered
GridDisk RECO_CD_11_ex01celd2550 successfully altered

Agora vamos realizar o Shut down do serviço cellsrv dentro da célula ex01celd2500

[root@ex01celd2550 ~]# cellcli -e alter cell shutdown services cellsrv

Stopping CELLSRV services...
The SHUTDOWN of CELLSRV services was successful.

Com tudo baixado na célula, vamos mudar o flashcache mode para “writeback”, usando o seguinte comando

[root@ex01celd2550 ~]# cellcli -e "alter cell flashCacheMode=writeback"
Cell ex01celd2550 successfully altered

Feito isso, vamos reiniciar novamente o serviço cellsrv e reativar todos os griddisks dentro da célula

[root@ex01celd2550 ~]# cellcli -e alter cell startup services cellsrv
Starting CELLSRV services...
The STARTUP of CELLSRV services was successful.

[root@ex01celd2550 ~]# cellcli -e alter griddisk all active
GridDisk DATA_CD_00_ex01celd2550 successfully altered
GridDisk DATA_CD_01_ex01celd2550 successfully altered
GridDisk DATA_CD_02_ex01celd2550 successfully altered
GridDisk DATA_CD_03_ex01celd2550 successfully altered
GridDisk DATA_CD_04_ex01celd2550 successfully altered
GridDisk DATA_CD_05_ex01celd2550 successfully altered
GridDisk DATA_CD_06_ex01celd2550 successfully altered
GridDisk DATA_CD_07_ex01celd2550 successfully altered
GridDisk DATA_CD_08_ex01celd2550 successfully altered
GridDisk DATA_CD_09_ex01celd2550 successfully altered
GridDisk DATA_CD_10_ex01celd2550 successfully altered
GridDisk DATA_CD_11_ex01celd2550 successfully altered
GridDisk SYSTEMDG_CD_02_ex01celd2550 successfully altered
GridDisk SYSTEMDG_CD_03_ex01celd2550 successfully altered
GridDisk SYSTEMDG_CD_04_ex01celd2550 successfully altered
GridDisk SYSTEMDG_CD_05_ex01celd2550 successfully altered
GridDisk SYSTEMDG_CD_06_ex01celd2550 successfully altered
GridDisk SYSTEMDG_CD_07_ex01celd2550 successfully altered
GridDisk SYSTEMDG_CD_08_ex01celd2550 successfully altered
GridDisk SYSTEMDG_CD_09_ex01celd2550 successfully altered
GridDisk SYSTEMDG_CD_10_ex01celd2550 successfully altered
GridDisk SYSTEMDG_CD_11_ex01celd2550 successfully altered
GridDisk RECO_CD_00_ex01celd2550 successfully altered
GridDisk RECO_CD_01_ex01celd2550 successfully altered
GridDisk RECO_CD_02_ex01celd2550 successfully altered
GridDisk RECO_CD_03_ex01celd2550 successfully altered
GridDisk RECO_CD_04_ex01celd2550 successfully altered
GridDisk RECO_CD_05_ex01celd2550 successfully altered
GridDisk RECO_CD_06_ex01celd2550 successfully altered
GridDisk RECO_CD_07_ex01celd2550 successfully altered
GridDisk RECO_CD_08_ex01celd2550 successfully altered
GridDisk RECO_CD_09_ex01celd2550 successfully altered
GridDisk RECO_CD_10_ex01celd2550 successfully altered
GridDisk RECO_CD_11_ex01celd2550 successfully altered

Com o comando de reativar os gridisks executamos, vamos ter que esperar realizar a sincronia da célula novamente, que pode ser feito utilizando o comando abaixo. Observer que alguns discos ainda estão OFFLINE e outros estão em modo “SYNCING”, vamos ter que esperar todos os discos ficarem ONLINE. O tempo para finalizar vai depender da quantidade de dados que você tem em disco e o tempo que você deixou o os discos inativos. Geralmente esse passo é rápido.

[root@ex01celd2550 ~]# cellcli -e list griddisk attributes name, asmmodestatus
         DATA_CD_00_ex01celd2550    SYNCING
         DATA_CD_01_ex01celd2550    SYNCING
         DATA_CD_02_ex01celd2550    SYNCING
         DATA_CD_03_ex01celd2550    SYNCING
         DATA_CD_04_ex01celd2550    SYNCING
         DATA_CD_05_ex01celd2550    SYNCING
         DATA_CD_06_ex01celd2550    SYNCING
         DATA_CD_07_ex01celd2550    SYNCING
         DATA_CD_08_ex01celd2550    SYNCING
         DATA_CD_09_ex01celd2550    SYNCING
         DATA_CD_10_ex01celd2550    SYNCING
         DATA_CD_11_ex01celd2550    SYNCING
         SYSTEMDG_CD_02_ex01celd2550      ONLINE
         SYSTEMDG_CD_03_ex01celd2550      ONLINE
         SYSTEMDG_CD_04_ex01celd2550      ONLINE
         SYSTEMDG_CD_05_ex01celd2550      ONLINE
         SYSTEMDG_CD_06_ex01celd2550      ONLINE
         SYSTEMDG_CD_07_ex01celd2550      ONLINE
         SYSTEMDG_CD_08_ex01celd2550      ONLINE
         SYSTEMDG_CD_09_ex01celd2550      ONLINE
         SYSTEMDG_CD_10_ex01celd2550      ONLINE
         SYSTEMDG_CD_11_ex01celd2550      ONLINE
         RECO_CD_00_ex01celd2550    OFFLINE
         RECO_CD_01_ex01celd2550    OFFLINE
         RECO_CD_02_ex01celd2550    OFFLINE
         RECO_CD_03_ex01celd2550    OFFLINE
         RECO_CD_04_ex01celd2550    OFFLINE
         RECO_CD_05_ex01celd2550    OFFLINE
         RECO_CD_06_ex01celd2550    OFFLINE
         RECO_CD_07_ex01celd2550    OFFLINE
         RECO_CD_08_ex01celd2550    OFFLINE
         RECO_CD_09_ex01celd2550    OFFLINE
         RECO_CD_10_ex01celd2550    OFFLINE
         RECO_CD_11_ex01celd2550    OFFLINE
[root@ex01celd2550 ~]# cellcli -e list griddisk attributes name, asmmodestatus
         DATA_CD_00_ex01celd2550    ONLINE
         DATA_CD_01_ex01celd2550    ONLINE
         DATA_CD_02_ex01celd2550    ONLINE
         DATA_CD_03_ex01celd2550    ONLINE
         DATA_CD_04_ex01celd2550    ONLINE
         DATA_CD_05_ex01celd2550    ONLINE
         DATA_CD_06_ex01celd2550    ONLINE
         DATA_CD_07_ex01celd2550    ONLINE
         DATA_CD_08_ex01celd2550    ONLINE
         DATA_CD_09_ex01celd2550    ONLINE
         DATA_CD_10_ex01celd2550    ONLINE
         DATA_CD_11_ex01celd2550    ONLINE
         SYSTEMDG_CD_02_ex01celd2550      ONLINE
         SYSTEMDG_CD_03_ex01celd2550      ONLINE
         SYSTEMDG_CD_04_ex01celd2550      ONLINE
         SYSTEMDG_CD_05_ex01celd2550      ONLINE
         SYSTEMDG_CD_06_ex01celd2550      ONLINE
         SYSTEMDG_CD_07_ex01celd2550      ONLINE
         SYSTEMDG_CD_08_ex01celd2550      ONLINE
         SYSTEMDG_CD_09_ex01celd2550      ONLINE
         SYSTEMDG_CD_10_ex01celd2550      ONLINE
         SYSTEMDG_CD_11_ex01celd2550      ONLINE
         RECO_CD_00_ex01celd2550    ONLINE
         RECO_CD_01_ex01celd2550    ONLINE
         RECO_CD_02_ex01celd2550    ONLINE
         RECO_CD_03_ex01celd2550    ONLINE
         RECO_CD_04_ex01celd2550    ONLINE
         RECO_CD_05_ex01celd2550    ONLINE
         RECO_CD_06_ex01celd2550    ONLINE
         RECO_CD_07_ex01celd2550    ONLINE
         RECO_CD_08_ex01celd2550    ONLINE
         RECO_CD_09_ex01celd2550    ONLINE
         RECO_CD_10_ex01celd2550    ONLINE
         RECO_CD_11_ex01celd2550    ONLINE

Com todos os discos ONLINE, vamos recriar novamente os FLASHCACHE griddisks, porém agora com o modo writeback habilitado.

[root@ex01celd2550 ~]# cellcli -e create flashcache all
Flash cache ex01celd2550_FLASHCACHE successfully created

Observe que agora a célula ex01celd2550 está em modo write back.

[root@ex01celd2550 ~]# cellcli -e list cell detail | grep flashCacheMode
         flashCacheMode:         writeback

O caminho agora é repetir esses passos na próximas células. Lembrando apenas que antes de deixar uma cell server offline, sempre garanta que o asmdeactivationoutcome mostre como YES, como fizemos acima com o comando:

# cellcli -e list griddisk attributes name,asmmodestatus,asmdeactivationoutcome

Agora é testar e verificar a diferença :)

Você irá conseguir melhores resultados já mudando a sua tabela para o flash cache utilizando o comando “alter table xxx storage (cell_flash_cache keep)”;

Espero que tenha ajudado,

Forte abraço.

Pedindo ajuda ao Oracle Exadata
June 27, 2012

Guarde em mente, se você quer mesmo aprender Oracle Exadata você tem que saber uma coisa: Administrar o Exadata Storage Server, a grande diferença entre administrar um ambiente Exadata e não Exadata é a necessidade de controlar o Storage Server.

Quase todas as ferramentas da Oracle que conheço são intuitivas, você acaba aprendendo com elas, o que não é diferente com o CellCli uma ferramenta command line utilizada para configurar, monitorar, manter, visualizar o Exadata Storage Cell (uma célula do Exadata Storage Server). Ferramenta está que somente é disponível quando estamos conectados direto no servidor Exadata, caso faça necessário realizar a conexão fora do Storage Server é necessário então o uso do DCli.

Uma vez estando conectado no servidor Exadata, basta executar o comando cellcli para iniciar a configuração Storage Server:

# cellcli 
CellCLI: Release 11.2.2.1.0 - Production on Tue Jun 26 17:38:49 PDT 2012

Copyright (c) 2007, 2009, Oracle.  All rights reserved.
Cell Efficiency Ratio: 1

CellCLI>

Como eu mencionei no parágrafo anterior, o cellcli é uma ferramente simples e que nos permite um alto nível de configuração. Nada melhor do que pedir uma ajuda para para começar:

CellCLI> help

 HELP [topic]
   Available Topics:
        ALTER
        ALTER ALERTHISTORY
        ALTER CELL
        ALTER CELLDISK
        ALTER GRIDDISK
        ALTER IORMPLAN
        ALTER LUN
        ALTER PHYSICALDISK
        ALTER QUARANTINE
        ALTER THRESHOLD
        ASSIGN KEY
        CALIBRATE
        CREATE
        CREATE CELL
        CREATE CELLDISK
        CREATE FLASHCACHE
        CREATE GRIDDISK
        CREATE KEY
        CREATE QUARANTINE
        CREATE THRESHOLD
        DESCRIBE
        DROP
        DROP ALERTHISTORY
        DROP CELL
        DROP CELLDISK
        DROP FLASHCACHE
        DROP GRIDDISK
        DROP QUARANTINE
        DROP THRESHOLD
        EXPORT CELLDISK
        IMPORT CELLDISK
        LIST
        LIST ACTIVEREQUEST
        LIST ALERTDEFINITION
        LIST ALERTHISTORY
        LIST CELL
        LIST CELLDISK
        LIST FLASHCACHE
        LIST FLASHCACHECONTENT
        LIST GRIDDISK
        LIST IORMPLAN
        LIST KEY
        LIST LUN
        LIST METRICCURRENT
        LIST METRICDEFINITION
        LIST METRICHISTORY
        LIST PHYSICALDISK
        LIST QUARANTINE
        LIST THRESHOLD
        SET
        SPOOL
        START

Veja que em apenas um comando é mostrado todas as formas possíveis de configuração que o cellcli possui. Mas podemos melhorar isso, quero saber por exemplo as possibilidades do comando list, veja a simplicidade:

CellCLI> help list

  Enter HELP LIST  for specific help syntax.
    :  {ACTIVEREQUEST | ALERTHISTORY | ALERTDEFINITION | CELL 
                     | CELLDISK | FLASHCACHE | FLASHCACHECONTENT | GRIDDISK
                     | IORMPLAN | KEY | LUN 
                     | METRICCURRENT | METRICDEFINITION | METRICHISTORY 
                     | PHYSICALDISK | QUARANTINE | THRESHOLD }

As possibilidades estão aumento, veja acima que com o comando list é possível descobrir a quantidade dos celldisk, a quantidade e status de cada um dos griddisk, saber todas as LUNs criadas no Storage e por ai vai … No exemplo abaixo vemos todos os griddisk do ambiente:

CellCLI> list griddisk
	 data_AA_01_cell	 active
	 data_AA_02_cell	 active
	 data_AA_03_cell	 active
	 data_AA_04_cell	 active
	 data_AA_05_cell	 active
	 data_AA_06_cell	 active
	 data_BB_00_cell    	 active
	 data_BB_01_cell    	 active
	 data_BB_02_cell    	 active
	 data_BB_03_cell    	 active

E podemos tirar muito mais do comando help, quero saber agora mais opções da listagem do griddisk:

CellCLI> help list griddisk

  Usage: LIST GRIDDISK [ | ] [] [DETAIL] 

  Purpose: Displays specified attributes for grid disks.

  Arguments:
    :  The name of the grid disk to be displayed.
    :  an expression which determines which grid disks should
                be displayed.
    : The attributes that are to be displayed.
                      ATTRIBUTES {ALL | attr1 [, attr2]... }

  Options:
    [DETAIL]: Formats the display as an attribute on each line, with
              an attribute descriptor preceding each value.

  Examples:
    LIST GRIDDISK where size > 100M
    LIST GRIDDISK gd1 DETAIL

Descobrimos acima, que podemos saber mais detalhes do griddisk se colocarmos a opção DETAIL no final do comando. Vamos tentar:

CellCLI> list griddisk data_CD_disk01_cell detail
	 name:              	 data_CD_disk01_cell
	 availableTo:       	 
	 cellDisk:          	 AA_01_cell
	 comment:           	 
	 creationTime:      	 2012-11-21T12:06:11-44:00
	 diskType:          	 HardDisk
	 errorCount:        	 0
	 id:                	 0000001a-a1ee-0b2g-0000-000000000000
	 offset:            	 48T
	 size:              	 448T
	 status:            	 active

Também é possível, de acordo com a saída do comando help, colocar filtros na pesquisa do comando list. No caso abaixo quero descobrir quais os griddisk maiores que 500 G.

CellCLI> list griddisk where size > 500G
	 data_AA_01_cell	 active
	 data_AA_02_cell	 active
	 data_BB_00_cell    	 active
	 data_BB_01_cell    	 active

Tudo isso feito simplesmente a partir do comando help, com um simples comando, podemos descobrir “n” possibilidades reais.

Em breve mais post sobre Exadata, conceitos e aplicações na prática !

Dúvidas? Comentem!
No que puder, terei prazer em ajudar :)

Um abraço a todos!

Certificado Oracle Exadata 11g
March 30, 2012

É com alegria que compartilho a vocês mais uma conquista.

Hoje prestei e passei na certificação 1Z0-536, recebendo assim o certificado “Oracle Exadata 11g Certitified Implementation Specialist”.

Uma notícia ainda melhor é que a partir de agora vou colocar post’s aqui sobre Exadata, quem estiver interessado acompanhe o blog :)

Um grande abraço e um ótimo final de semana a todos …

Certificação Exadata Flávio Soares

Exadata e Eu!
December 8, 2011

Olá Pessoal,

Ontem participei do Oracle Open World 2011 Latin America, foi a primeira vez que participei do evento (essa é uma das vantagens de se morar em SP, os eventos são bem mais próximos) e gostei muito.

Fiquei quase que o tempo todo no stand da Discover, o pessoal se divertiu muito lá com games interativos :)

Pude ver de perto o Oracle Exadata e Exalogic e participei de algumas palestras de demonstrações, realmente valeu a pena.