Luis Betancurt Obregón y Michelle Santos Monge – Estudiantes del curso de Estudios Generales

IBM expone los siguientes modelos de fiabilidad:
• Alfa (Cronbach): es un modelo de consistencia interna que se basa en la correlación entre elementos promedio.
• Dos mitades: este modelo divide la escala en dos partes y examina la correlación entre ellas.
• Guttman: este modelo calcula los límites inferiores de Guttman para la fiabilidad verdadera.
• Paralelo: este modelo asume que todos los elementos tienen varianzas iguales y varianzas error iguales a través de las réplicas.
• Paralelo estricto: este modelo asume los supuestos del modelo paralelo y también asume que las medias son iguales a través de los elementos. (IBM, s.f).

¿Qué pasaría si perdemos la confianza? Las relaciones humanas, nuestro comportamiento e interacción, incluso nuestras líneas de pensamiento y accionar, se verían intervenidas por el constante cuestionamiento de si algo es verdadero o no; lo mismo pasaría con la fiabilidad de los datos en el campo de la estadística. Estaríamos con la interrogante de si los datos recolectados en un proceso estadístico son certeros y confiables. Pues, al fin y al cabo, ¿en qué podemos confiar?

La fiabilidad de un producto o de un sistema se define, cualitativamente hablando, “como la aptitud para realizar su función, durante un tiempo especificado, en las condiciones especificadas” (Fernández, s.f). Este concepto también se asocia con la teoría de la fiabilidad, como el estudio de la distribución del tiempo hasta que se genera un fallo; como las distintas unidades de un estudio no se estropean todas al mismo tiempo, pues es “la probabilidad de que una unidad, escogida al azar, no haya fallado en un tiempo” (Fernández, s.f).
Para obtener datos eficientes debemos analizar el campo y población que trabajaremos para así poder seleccionar la mejor técnica que nos permita realizar análisis más eficaces, y una correcta recolección de los datos. Con esto podremos optimizar la manera en que se estudian los fenómenos dentro la población.

La información se construye con todo a nuestro alrededor. Cada cosa y evento que ocurre se convierte en una nueva fuente de información que nos puede ser de utilidad para la investigación. Ante ello, se podrá documentar los hallazgos y posibles soluciones.
Los métodos cuantitativos analizan el comportamiento de causas y efecto de alguna problemática para así buscar una solución mediante la recolección y análisis de los datos. Debido a esto, el investigador tiene que buscar diferentes tipos de herramientas que le permitan llegar a una conclusión de lo que está pasando y cómo se puede resolver. En este proceso el investigador tiene que utilizar todos los métodos y fuentes de información que estén disponibles para él y su investigación.

Adicionalmente, la investigación cuantitativa tiene como objetivo obtener respuestas a preguntas específicas de la población. La finalidad empresarial sería la toma de decisiones exactas y efectivas que ayuden a alcanzar aquello que estábamos persiguiendo. Por ejemplo, pensemos en una empresa que busca el lanzamiento de un nuevo producto y su meta es tener éxito con su posicionamiento en el mercado. Para ello, es necesario realizar un estudio previo a través del método cuantitativo que le permita identificar oportunidades de desarrollo y le brinde una perspectiva más amplia del futuro en el mercado de su nuevo producto. Luego se utiliza una herramienta de gestión que nos ayude a tomar esas decisiones más efectivas (Sinnaps, s.f).

Es importante también considerar que los datos corren el riesgo de ser presentados de una manera que dé lugar a la creación de supuestos y malas interpretaciones por parte del público al que se le presenta la información. Un claro ejemplo de ello es el tema de las encuestas previas a las elecciones presidenciales, dado que la presentación de estos datos crea la posibilidad de influir en el pensamiento colectivo y manipular las decisiones de los individuos. De esta manera, se abre el portillo de la generación de un resultado no ecuánime en un proceso tan trascendental como la presidencia de una república; de ahí la gran responsabilidad de la persona que recolecta y presenta los datos de las estadísticas.

Por lo tanto, rescatamos que la fiabilidad de los datos y la construcción de información requieren de obtener datos claros y efectivos que enfoquen nuestro campo de estudio y objetivo de investigación, hasta agotar todas nuestras fuentes de información y obtener datos concisos. La información e investigaciones pueden ser de mucha utilidad para la sociedad, solo debemos utilizarlos correctamente, saber cómo obtenerlos, y presentarlos de la mejor manera posible procurando que la representatividad y objetividad estén siempre presentes.

 

MOXIE es el Canal de ULACIT (www.ulacit.ac.cr), producido por y para los estudiantes universitarios, en alianza con el medio periodístico independiente Delfino.cr, con el propósito de brindarles un espacio para generar y difundir sus ideas.  Se llama Moxie - que en inglés urbano significa tener la capacidad de enfrentar las dificultades con inteligencia, audacia y valentía - en honor a nuestros alumnos, cuyo “moxie” los caracteriza.

 

Referencias bibliográficas:
  • Fernández, S. N. (s.f). Fiabilidad estadística: estado del arte y nuevos retos. Recuperado de http://www.alammi.info/2congreso/memorias/Documentos/miercoles/Fiabilidad_Salvador_Naya%5B1%5D.pdf
  • IBM. (s.f). Análisis de fiabilidad. Recuperado de https://www.ibm.com/support/knowledgecenter/es/SSLVMB_sub/statistics_mainhelp_ddita/spss/base/idh_reli.html
  • Sinnaps. (s.f). Características del método cuantitativo. Recuperado de https://www.sinnaps.com/blog-gestion-proyectos/metodo-cuantitativo