Como se representa la notacion cientifica

Reglas de notación científica

El formato para escribir un número en notación científica es bastante sencillo: (primer dígito del número) seguido de (el punto decimal) y luego (el resto de los dígitos del número), por (10 a una potencia apropiada).
No se trata de un número muy grande, pero puede servir de ejemplo. Para convertirlo en notación científica, primero convierto el “124” en “1,24”. No es el mismo número que me dieron, pero (1,24)(100) = 124 sí lo es, y 100 = 102.
En realidad, la conversión entre la notación “normal” y la notación científica es aún más sencilla de lo que acabo de mostrar, porque lo único que hay que hacer es contar los decimales. Para hacer la conversión del ejemplo anterior, contaría el número de decimales que he movido la coma. Como lo he movido dos lugares, entonces estaría tratando con una potencia de 2 sobre 10. ¿Pero debería ser una potencia de 2 positiva o negativa? Como el número original (124) era mayor que la forma convertida (1,24), la potencia debería ser positiva.
Como el exponente de 10 es positivo, sé que buscan un número GRANDE, así que tendré que mover el punto decimal a la derecha para que el número sea MÁS GRANDE. Como el exponente de 10 es “12”, tendré que desplazar el punto decimal doce lugares.

Calculadora de notación científica con pasos

La notación científica es una forma de expresar los números que son demasiado grandes o demasiado pequeños (por lo general daría lugar a una larga cadena de dígitos) para ser convenientemente escrito en forma decimal. Puede denominarse forma científica o forma de índice estándar, o forma estándar en el Reino Unido. Esta notación de base diez es comúnmente utilizada por científicos, matemáticos e ingenieros, en parte porque puede simplificar ciertas operaciones aritméticas. En las calculadoras científicas suele conocerse como modo de visualización “SCI”.
o m veces diez elevado a la potencia de n, donde n es un número entero, y el coeficiente m es un número real no nulo (normalmente entre 1 y 10 en valor absoluto, y casi siempre escrito como un decimal final). El número entero n se denomina exponente y el número real m se llama significante o mantisa[1] El término “mantisa” puede ser ambiguo cuando se trata de logaritmos, porque también es el nombre tradicional de la parte fraccionaria del logaritmo común. Si el número es negativo, un signo menos precede a m, como en la notación decimal ordinaria. En la notación normalizada, el exponente se elige de forma que el valor absoluto (módulo) del significante m sea al menos 1 pero inferior a 10.

Leer más  .6 en fraccion

Problemas de notación científica

La notación científica es una forma de expresar los números que son demasiado grandes o demasiado pequeños (por lo general, daría lugar a una larga cadena de dígitos) para ser convenientemente escrito en forma decimal. Puede denominarse forma científica o forma de índice estándar, o forma estándar en el Reino Unido. Esta notación de base diez es comúnmente utilizada por científicos, matemáticos e ingenieros, en parte porque puede simplificar ciertas operaciones aritméticas. En las calculadoras científicas suele conocerse como modo de visualización “SCI”.
o m veces diez elevado a la potencia de n, donde n es un número entero, y el coeficiente m es un número real no nulo (normalmente entre 1 y 10 en valor absoluto, y casi siempre escrito como un decimal final). El número entero n se denomina exponente y el número real m se llama significante o mantisa[1] El término “mantisa” puede ser ambiguo cuando se trata de logaritmos, porque también es el nombre tradicional de la parte fraccionaria del logaritmo común. Si el número es negativo, un signo menos precede a m, como en la notación decimal ordinaria. En la notación normalizada, el exponente se elige de forma que el valor absoluto (módulo) del significante m sea al menos 1 pero inferior a 10.

Definición de notación científica

En las secciones anteriores, hemos hablado de algunos números muy grandes. En astronomía, la aparición de estos números enormes es habitual. Ésta es una de las razones por las que los astrónomos y otros científicos utilizan la notación científica cuando trabajan con números muy grandes o muy pequeños. La notación científica es un sistema para escribir y trabajar con números que hace mucho más fácil tratar con números que son muy pequeños o muy grandes.
Por ejemplo, la galaxia de la Vía Láctea contiene aproximadamente tres duodecil millones de toneladas de materia. Se trata de un número bastante complicado. (Los astrónomos nunca escribirían esto. En su lugar, dirían que la Vía Láctea contiene un billón de veces la masa del Sol, lo cual es algo más fácil. Utilizaremos este número mucho mayor para nuestra demostración). También se podría escribir este número como
Un número escrito correctamente en notación científica tiene dos partes. La primera es un número mayor o igual que 1 y menor que 10 (pero puede ser positivo o negativo). A veces se denomina mantisa. La segunda parte es el número diez elevado a una potencia de número entero. El exponente del segundo número se llama potencia. Algunos ejemplos de números escritos correctamente en notación científica son

Acerca del autor

Rebeca Sánchez

Rebeca Sánchez

Ver todos los artículos