- This topic has 4 replies, 3 voices, and was last updated 8 years, 6 months ago by Adriana Góis.
-
AuthorPosts
-
3 de maio de 2016 at 1:30 am #108130Adriana GóisParticipant
Bom dia,
Estou com um erro na execução do comando abaixo.
expdp system/senha@host Full=Y Content=All Directory=DUMPDIR DumpFile=C:BACKUPbkp_datapumpbkp_logicoDataPump_Full_Teste.dmp LogFile=C:BACKUPbkp_datapumpbkp_logicoDataPump_Full_Teste.log
A SGA anterior estava configurada assim:
MEMORY_TARGET = 1024M
MEMORY_MAX_TARGET = 1024M
SGA_MAX_SIZE = 1024MA SGA agora está configurada assim:
MEMORY_TARGET = 700M
MEMORY_MAX_TARGET = 700M
SGA_MAX_SIZE = 700MAté dia 28/04 estava tudo funcionando. A partir da mudança acima na SGA, o erro veio a acontecer.
Obrigada pela atenção,
Grata,
Adriana Góis
3 de maio de 2016 at 6:33 pm #108134Adriana GóisParticipant5 de maio de 2016 at 6:59 pm #108137José Laurindo ChiappaModeratorColega, o teu erro aqui parece ser claro : a SGA *** não é *** a única área de memória que o RDBMS tem que manter : dentro do total máximo de RAM a alocar, o RDBMS tem que alocar além da SGA (que é a área de caches) *** TAMBÉM *** a PGA (área de memória das sessões conectadas, usadas principalmente para variáveis) – sendo assim, NÂO FAZ SENTIDO NENHUM vc botar SGA do tamanho da RAM máxima, cadê a espaço pra PGA ??
O que eu te aconselho é usar a AMM , ie, o gerenciamente de memória automático : isso se faz setando os parâmetros de MEMORY_xxxxx (RESPEITANDO o limite de 1 Gb máximo do XE, que o printscreen diz que vc tá usando) e Eliminando os parâmetros SGA_xxx, PGA_xxx, xxCACHExxx, XxxxPOOLxxx, xxxBUFFERxxx, etc…Sobre a mensagem do client do expdp de job não encontrado, seguinte : o executável expdp.exe nada mais é do que um front-end, uma “casca” na frente dos JOBS DE BANCO que o datapump cria – toda a operação de export e import feita pelo datapump é feita INTERNAMENTE, dentro do database, via database jobs que o datapump cria automaticamente : pelo jeito, por um motivo qualquer (falta de memória, talvez ?) os jobs falharam mas ainda estão presentes dentro do database, com status de falha : depois de identificar e corrigir o problema, ELIMINE esses jobs, https://pavandba.com/2011/07/12/how-to-deleteremove-non-executing-datapump-jobs/ exemplifica como se faz…
[]s
Chiappa
6 de maio de 2016 at 7:07 am #108142norbertomtParticipantTalvez seja isto, mais não custa tentar.
SOLUTION1 Primeiro check o valor de STREAMS_POOL_SIZE
connect / as sysdba
show parameter streams_pool
select * from v$sgainfo;se o parametro STREAMS_POOL_SIZE for pequeno o job do datapump irá falhar.
64M, 128M ou 2566 de maio de 2016 at 5:46 pm #108147Adriana GóisParticipantBom dia,
O valor do parâmetro STREAMS_POOL_SIZE no banco de dados está zero.
Neste caso, eu deveria alterar este parâmetro para algum dos valores sugeridos acima ?
Grata.
-
AuthorPosts
- You must be logged in to reply to this topic.