Luck-lady.ru

Настольная книга финансиста
3 просмотров
Рейтинг статьи
1 звезда2 звезды3 звезды4 звезды5 звезд
Загрузка...

Полиномиальный регрессионный анализ

Python | Реализация полиномиальной регрессии

Полиномиальная регрессия — это форма линейной регрессии, в которой взаимосвязь между независимой переменной x и зависимой переменной y моделируется как полином n-й степени. Полиномиальная регрессия соответствует нелинейной зависимости между значением x и соответствующим условным средним значением y, обозначаемым E (y | x)

Почему полиномиальная регрессия:

  • Есть некоторые отношения, которые, по предположению исследователя, являются криволинейными. Ясно, что такие случаи будут включать полиномиальный член.
  • Инспекция остатков. Если мы попытаемся подогнать линейную модель к изогнутым данным, на графике рассеяния остатков (ось Y) на предикторе (ось X) будут посередине много положительных остатков. Следовательно в такой ситуации это не подходит.
  • В обычном множественном линейном регрессионном анализе предполагается, что все независимые переменные являются независимыми. В модели полиномиальной регрессии это предположение не выполняется.

Использование полиномиальной регрессии:
Они в основном используются для определения или описания нелинейного явления, такого как:

  • Скорость роста тканей.
  • Прогрессирование эпидемий болезней
  • Распределение изотопов углерода в озерных отложениях

Основной целью регрессионного анализа является моделирование ожидаемого значения зависимой переменной y в терминах значения независимой переменной x. В простой регрессии мы использовали следующее уравнение —

Здесь y — зависимая переменная, a — пересечение y, b — наклон, а e — частота ошибок.

Во многих случаях эта линейная модель не сработает. Например, если мы анализируем производство химического синтеза с точки зрения температуры, при которой происходит синтез, в таких случаях мы используем квадратичную модель.

Здесь y — зависимая переменная от x, a — перехват y, а e — частота ошибок.

В общем, мы можем смоделировать его для n-го значения.

Поскольку функция регрессии является линейной с точки зрения неизвестных переменных, следовательно, эти модели являются линейными с точки оценки.

Следовательно, с помощью метода наименьших квадратов, давайте вычислим значение ответа, которое является у.

Полиномиальная регрессия в Python:
Чтобы получить набор данных, используемый для анализа полиномиальной регрессии, нажмите здесь .

Шаг 1: Импорт библиотек и наборов данных
Импортируйте важные библиотеки и набор данных, который мы используем для выполнения полиномиальной регрессии.

import numpy as np

import matplotlib.pyplot as plt

import pandas as pd

# Импорт набора данных

datas = pd.read_csv( ‘data.csv’ )

Шаг 2: Разделение набора данных на 2 компонента

Разделите набор данных на два компонента, то есть X, а yX будет содержать столбец между 1 и 2. y будет содержать столбец 2.

X = datas.iloc[:, 1 : 2 ].values

y = datas.iloc[:, 2 ].values

Шаг 3: Подгонка линейной регрессии к набору данных

Подгонка модели линейной регрессии по двум компонентам.

# Подгонка линейной регрессии к набору данных

from sklearn.linear_model import LinearRegression

Шаг 4: Подгонка полиномиальной регрессии к набору данных

Подгонка модели полиномиальной регрессии к двум компонентам X и y.

# Подгонка полиномиальной регрессии к набору данных

from sklearn.preprocessing import PolynomialFeatures

poly = PolynomialFeatures(degree = 4 )

Шаг 5: На этом этапе мы визуализируем результаты линейной регрессии, используя график рассеяния.

# Визуализация результатов линейной регрессии

plt.scatter(X, y, color = ‘blue’ )

plt.plot(X, lin.predict(X), color = ‘red’ )

plt.title( ‘Linear Regression’ )

Шаг 6: Визуализация результатов полиномиальной регрессии с использованием точечной диаграммы.

# Визуализация результатов полиномиальной регрессии

plt.scatter(X, y, color = ‘blue’ )

plt.plot(X, lin2.predict(poly.fit_transform(X)), color = ‘red’ )

plt.title( ‘Polynomial Regression’ )

Шаг 7: Прогнозирование нового результата с помощью линейной и полиномиальной регрессии.

# Прогнозирование нового результата с помощью линейной регрессии

# Прогнозирование нового результата с помощью полиномиальной регрессии

Преимущества использования полиномиальной регрессии:

  • Широкий диапазон функций может быть приспособлен под это.
  • Полином в основном соответствует широкому диапазону кривизны.
  • Полином обеспечивает наилучшее приближение отношения между зависимой и независимой переменной.

Недостатки использования полиномиальной регрессии

  • Они слишком чувствительны к выбросам.
  • Наличие одного или двух выбросов в данных может серьезно повлиять на результаты нелинейного анализа.
  • Кроме того, к сожалению, существует меньше инструментов проверки модели для обнаружения выбросов в нелинейной регрессии, чем для линейной регрессии.

Полиномиальная регрессия — Polynomial regression

В статистике , полиномиальной регрессии является одной из форм регрессионного анализа , в котором зависимость между независимой переменной х и зависимой переменной у моделируется как п — й степени полинома в х . Полиномиальная регрессия подходит нелинейную зависимость между величиной х и соответствующим условным средним по у , обозначаемый Е ( у | х ), и используется для описания нелинейных явлений , такие , как скорость роста тканей, распределение изотопов углерода в озере отложения, и прогрессирование заболевания. эпидемий Хотя полиномиальная регрессия подходит нелинейную модель к данным, как статистическая оценка задача является линейным, в том смысле , что функция регрессии E ( у | х ) является линейная относительно неизвестных параметров , которые оцениваются из данных . По этой причине, полиномиальная регрессия считается частным случаем множественной линейной регрессии .

В пояснительных (независимых переменных) , возникающие в результате полинома расширения «базовых» переменных известны как члены более высокого степени. Такие переменные также используются в классификации параметров.

содержание

история

Полиномиальные модели регрессии, как правило , подходят с использованием метода наименьших квадратов . Метод наименьших квадратов минимизирует дисперсию из несмещенных оценок коэффициентов при условиях теоремы Гаусса-Маркова . Метод наименьших квадратов был опубликован в 1805 году Лежандра , а в 1809 году Гаусс . Первый дизайн из эксперимента для полиномиальной регрессии появился в 1815 году бумаг Gergonne . В двадцатом веке, полиномиальная регрессия играет важную роль в развитии регрессионного анализа , с большим акцентом на вопросах дизайна и умозаключений . Совсем недавно, использование полиномиальных моделей было дополнено другими методами, с неполиномиальной моделью , имеющими преимущества для некоторых классов задач.

Определение и пример

Целью регрессионного анализа для моделирования ожидаемое значение зависимой переменной у с точки зрения стоимости независимой переменной (или вектор независимых переменных) х . В простой линейной регрессии, модель

Y знак равно β 0 + β 1 Икс + ε , < Displaystyle у = бета _ <0>+ бета _ <1>х + varepsilon, ,>

используется, где ε является незаметным случайная ошибка с нулевым средним кондиционированной на скалярной переменной х . В этой модели для каждого увеличения единицы в значении х , условное ожидание у увеличивается на & beta ; 1 единиц.

Читать еще:  Анализ внешнего окружения организации

Во многих случаях такая линейная зависимость может не выполняться. Например, если мы моделируем выход химического синтеза с точки зрения температуры, при которой происходит синтез, мы можем обнаружить, что выход улучшается за счет увеличения количества для каждого увеличения температуры единицы. В этом случае, мы могли бы предложить квадратичную модель вида

Y знак равно β 0 + β 1 Икс + β 2 Икс 2 + ε , < Displaystyle у = бета _ <0>+ бета _ <1>х + бета _ <2>х ^ <2>+ varepsilon. ,>

В этой модели, когда температура увеличивается от й до й + 1 единиц, ожидаемые изменения доходности по (Это можно увидеть, заменив й в этом уравнении с й +1 и вычитая уравнение х из уравнения в й +1 .) для бесконечно малых изменений х , эффект от у определяются полной производной по отношению к й : Тому факту , что изменение доходности зависит от х , что делает соотношение между й и у нелинейного даже если модель является линейной в параметры , которые будут оценены. β 1 + β 2 ( 2 Икс + 1 ) , < Displaystyle бета _ <1>+ бета _ <2>(2х + 1).> β 1 + 2 β 2 Икс , < Displaystyle бета _ <1>+ 2 бета _ <2>х.>

В общем, мы можем смоделировать ожидаемую величину у как п — й степени полинома, что дает общий полином модели регрессии

Y знак равно β 0 + β 1 Икс + β 2 Икс 2 + β 3 Икс 3 + ⋯ + β N Икс N + ε , < Displaystyle у = бета _ <0>+ бета _ <1>х + бета _ <2>х ^ <2>+ бета _ <3>х ^ <3>+ cdots + бета _ < п>х ^ <п>+ varepsilon. ,>

Удобно, эти модели линейны с точки зрения оценки , так как функция регрессии линейна в терминах неизвестных параметров р , р 1 , . Таким образом, для наименьших квадратов анализа, расчетные и выведенный проблемы полиномиальная регрессия может быть полностью рассмотрена с использованием методов множественной регрессии . Это делается путем обработки х , х 2 , . как отдельные независимые переменные в модели множественной регрессии.

Форма матрицы и вычисление оценок

Полином модель регрессии

Y я знак равно β 0 + β 1 Икс я + β 2 Икс я 2 + ⋯ + β м Икс я м + ε я ( я знак равно 1 , 2 , . , N ) < Displaystyle у- <я>, = , бета _ <0>+ бета _ <1>X_ <я>+ бета _ <2>X_ <я>^ <2>+ cdots + бета _ <т>X_ <я>^ <т>+ varepsilon _ <я> (I = 1,2, точками, п)>

может быть выражено в матричной форме в терминах дизайна матрицы , вектора отклика , вектор параметра , и вектор случайных ошибок. Я -й строка и будет содержать й и у значения для я -й выборки данных. Тогда модель может быть записана в виде системы линейных уравнений: Икс < Displaystyle mathbf > Y → < Displaystyle < VEC <у>>> β → < Displaystyle < VEC < бета>>> ε → < Displaystyle < VEC < varepsilon>>> Икс < Displaystyle mathbf > Y → < Displaystyle < VEC <у>>>

[ Y 1 Y 2 Y 3 ⋮ Y N ] знак равно [ 1 Икс 1 Икс 1 2 . Икс 1 м 1 Икс 2 Икс 2 2 . Икс 2 м 1 Икс 3 Икс 3 2 . Икс 3 м ⋮ ⋮ ⋮ ⋱ ⋮ 1 Икс N Икс N 2 . Икс N м ] [ β 0 β 1 β 2 ⋮ β м ] + [ ε 1 ε 2 ε 3 ⋮ ε N ] , < Displaystyle < у- <1>\ у- <2>\ у- <3>\ vdots \ у- <п> конец > = < <начинают bmatrix>1 & X_ < 1>& X_ <1>^ <2>& точки и X_ <1>^ <т>\ 1 & X_ <2>& X_ <2>^ <2>& точки и X_ <2>^ <т>\ 1 & X_ < 3>& X_ <3>^ <2>& точки и X_ <3>^ <т>\ vdots & vdots & vdots & ddots & vdots \ 1 & X_ & X_ <п>^ <2 >& точки и X_ ^ <конец bmatrix>> < BEGIN бета _ <0>_ \ бета <1>_ \ бета <2>\ vdots \ бета-_ <м> <конец bmatrix>> + < <начинаются bmatrix> varepsilon _ <1>_ \ varepsilon <2>_ \ varepsilon <3>\ \ vdots varepsilon _ <п> конец >>

которая при использовании чистой матричной записи записываются в виде

Y → знак равно Икс β → + ε → , < Displaystyle < VEC <у>> = mathbf < VEC < бета>> + < VEC < varepsilon>>. ,>

Вектор оцененных полиномиальных коэффициентов регрессии (используя обычный метод наименьших квадратов оценки ) является

β → ^ знак равно ( Икс T Икс ) — 1 Икс T Y → , < Displaystyle < widehat < VEC < бета>>> = ( mathbf ^ < mathsf> mathbf ) ^ <- 1>; mathbf ^ < mathsf> < VEC <у>>, ,>

при условии , м Икс < Displaystyle mathbf > Икс я < Displaystyle X_ <я>>

интерпретация

Хотя полиномиальная регрессия является технически частным случаем множественной линейной регрессии, интерпретация подогнанной полиномиальной регрессионной модели требует несколько иной точки зрения. Часто бывает трудно интерпретировать отдельные коэффициенты полинома регрессии подходит, так как основные Мономы могут быть тесно взаимосвязаны. Так , например, х и х 2 имеют корреляцию вокруг 0.97 , когда х равномерно распределена на интервале (0, 1). Хотя корреляция может быть уменьшена с помощью ортогональных многочленов , то , как правило , более информативно рассматривать подогнанную функцию регрессии в целом. Точечные-накрест или одновременно доверительные полосы могут быть использованы , чтобы обеспечить чувство неопределенности в оценке функции регрессии.

Альтернативные подходы

Полиномиальная регрессия является одним из примеров регрессионного анализа с использованием базисных функций для моделирования функциональной зависимости между двумя величинами. Более конкретно, он заменяет в линейной регрессии с полиномиальной основой , например . Недостаток полиномиальных базисов является то , что базисные функции «не местные», а это означает , что встроено значение у при заданном значении х = х сильно зависит от значений данных , с й далеко от й . В современной статистике, полиномиальный базис-функции используются наряду с новыми базисными функциями , такими как шлицы , радиальных базисных функций и вейвлетов . Эти семейства базисных функций предлагают более экономные подходят для многих типов данных. Икс ∈ р d Икс < Displaystyle х в mathbb ^ >> φ ( Икс ) ∈ р d φ < Displaystyle varphi (х) в mathbb ^ >> [ 1 , Икс ] → φ [ 1 , Икс , Икс 2 , . , Икс d ] < Displaystyle [1, х] < mathbin < stackrel < varphi>< RightArrow>>> [1, х, х ^ <2>, ldots, х ^ ]>

Цель полиномиальной регрессии заключается в моделировании нелинейной зависимости между независимым и зависимым переменными (технически, между независимым переменным и условным средним зависимого переменным). Это похоже на цели непараметрической регрессии , которая стремится захватить Нелинейное регрессионное отношение. Таким образом, непараметрические регрессии подходы , такие как сглаживание могут быть полезными альтернативами полиномиальной регрессии. Некоторые из этих методов используют локализованную форму классической полиномиальной регрессии. Преимущество традиционной полиномиальной регрессии является то , что выводная рамка множественной регрессии может быть использована (это также имеет место при использовании других семейств базисных функций , таких как сплайны).

Читать еще:  Анализ и принятие краткосрочных управленческих решений

Окончательный вариант заключается в использовании kernelized модели , такие как поддержка векторной регрессия с полиномиальным ядром .

5 видов регрессии и их свойства

Линейная и логистическая регрессии обычно являются первыми видами регрессии, которые изучают в таких областях, как машинное обучение и наука о данных. Оба метода считаются эффективными, так как их легко понять и использовать. Однако, такая простота также имеет несколько недостатков, и во многих случаях лучше выбирать другую регрессионную модель. Существует множество видов регрессии, каждый из которых имеет свои достоинства и недостатки.

Мы познакомимся с 7 наиболее распространенными алгоритмами регрессии и опишем их свойства. Также мы узнаем, в каких ситуация и с какими видами данных лучше использовать тот или иной алгоритм. В конце мы расскажем о некоторых инструментах для построения регрессии и поможем лучше разобраться в регрессионных моделях в целом!

Линейная регрессия

Регрессия — это метод, используемый для моделирования и анализа отношений между переменными, а также для того, чтобы увидеть, как эти переменные вместе влияют на получение определенного результата. Линейная регрессия относится к такому виду регрессионной модели, который состоит из взаимосвязанных переменных. Начнем с простого. Парная (простая) линейная регрессия — это модель, позволяющая моделировать взаимосвязь между значениями одной входной независимой и одной выходной зависимой переменными с помощью линейной модели, например, прямой.

Более распространенной моделью является множественная линейная регрессия, которая предполагает установление линейной зависимости между множеством входных независимых и одной выходной зависимой переменных. Такая модель остается линейной по той причине, что выход является линейной комбинацией входных переменных. Мы можем построить модель множественной линейной регрессии следующим образом:

Y = a_1*X_1 + a_2*X_2 + a_3*X_3 ……. a_n*X_n + b

Где a_n — это коэффициенты, X_n — переменные и b — смещение. Как видим, данная функция не содержит нелинейных коэффициентов и, таким образом, подходит только для моделирования линейных сепарабельных данных. Все очень просто: мы взвешиваем значение каждой переменной X_n с помощью весового коэффициента a_n. Данные весовые коэффициенты a_n, а также смещение b вычисляются с применением стохастического градиентного спуска. Посмотрите на график ниже в качестве иллюстрации!

Несколько важных пунктов о линейной регрессии:

  • Она легко моделируется и является особенно полезной при создании не очень сложной зависимости, а также при небольшом количестве данных.
  • Обозначения интуитивно-понятны.
  • Чувствительна к выбросам.

Полиномиальная регрессия

Для создания такой модели, которая подойдет для нелинейно разделяемых данных, можно использовать полиномиальную регрессию. В данном методе проводится кривая линия, зависимая от точек плоскости. В полиномиальной регрессии степень некоторых независимых переменных превышает 1. Например, получится что-то подобное:

Y = a_1*X_1 + (a_2)²*X_2 + (a_3)⁴*X_3 ……. a_n*X_n + b

У некоторых переменных есть степень, у других — нет. Также можно выбрать определенную степень для каждой переменной, но для этого необходимы определенные знания о том, как входные данные связаны с выходными. Сравните линейную и полиномиальную регрессии ниже.

Несколько важных пунктов о полиномиальной регрессии:

  • Моделирует нелинейно разделенные данные (чего не может линейная регрессия). Она более гибкая и может моделировать сложные взаимосвязи.
  • Полный контроль над моделированием переменных объекта (выбор степени).
  • Необходимо внимательно создавать модель. Необходимо обладать некоторыми знаниями о данных, для выбора наиболее подходящей степени.
  • При неправильном выборе степени, данная модель может быть перенасыщена.

Гребневая (ридж) регрессия

В случае высокой коллинеарности переменных стандартная линейная и полиномиальная регрессии становятся неэффективными. Коллинеарность — это отношение независимых переменных, близкое к линейному. Наличие высокой коллинеарности можно определить несколькими путями:

  • Коэффициент регрессии не важен, несмотря на то, что, теоретически, переменная должна иметь высокую корреляцию с Y.
  • При добавлении или удалении переменной из матрицы X, коэффициент регрессии сильно изменяется.
  • Переменные матрицы X имеют высокие попарные корреляции (посмотрите корреляционную матрицу).

Сначала можно посмотреть на функцию оптимизации стандартной линейной регрессии для лучшего понимания того, как может помочь гребневая регрессия:

Где X — это матрица переменных, w — веса, y — достоверные данные. Гребневая регрессия — это корректирующая мера для снижения коллинеарности среди предикторных переменных в регрессионной модели. Коллинеарность — это явление, в котором одна переменная во множественной регрессионной модели может быть предсказано линейно, исходя из остальных свойств со значительной степенью точности. Таким образом, из-за высокой корреляции переменных, конечная регрессионная модель сведена к минимальным пределам приближенного значения, то есть она обладает высокой дисперсией.

Гребневая регрессия добавляет небольшой фактор квадратичного смещения для уменьшения дисперсии:

Такой фактор смещения выводит коэффициенты переменных из строгих ограничений, вводя в модель небольшое смещение, но при этом значительно снижая дисперсию.

Несколько важных пунктов о гребневой регрессии:

  • Допущения данной регрессии такие же, как и в методе наименьших квадратов, кроме того факта, что нормальное распределение в гребневой регрессии не предполагается.
  • Это уменьшает значение коэффициентов, оставляя их ненулевыми, что предполагает отсутствие отбора признаков.

Регрессия по методу «лассо»

В регрессии лассо, как и в гребневой, мы добавляем условие смещения в функцию оптимизации для того, чтобы уменьшить коллинеарность и, следовательно, дисперсию модели. Но вместо квадратичного смещения, мы используем смещение абсолютного значения:

Существует несколько различий между гребневой регрессией и лассо, которые восстанавливают различия в свойствах регуляризаций L2 и L1:

  • Встроенный отбор признаков — считается полезным свойством, которое есть в норме L1, но отсутствует в норме L2. Отбор признаков является результатом нормы L1, которая производит разреженные коэффициенты. Например, предположим, что модель имеет 100 коэффициентов, но лишь 10 из них имеют коэффициенты отличные от нуля. Соответственно, «остальные 90 предикторов являются бесполезными в прогнозировании искомого значения». Норма L2 производит неразряженные коэффициенты и не может производить отбор признаков. Таким образом, можно сказать, что регрессия лассо производит «выбор параметров», так как не выбранные переменные будут иметь общий вес, равный 0.
  • Разряженность означает, что незначительное количество входных данных в матрице (или векторе) имеют значение, отличное от нуля. Норма L1 производит большое количество коэффициентов с нулевым значением или очень малые значения с некоторыми большими коэффициентами. Это связано с предыдущим пунктом, в котором указано, что лассо исполняет выбор свойств.
  • Вычислительная эффективность: норма L1 не имеет аналитического решения в отличие от нормы L2. Это позволяет эффективно вычислять решения нормы L2. Однако, решения нормы L1 не обладают свойствами разряженности, что позволяет использовать их с разряженными алгоритмами для более эффективных вычислений.
Читать еще:  Анализ структуры пассивов предприятия

Регрессия «эластичная сеть»

Эластичная сеть — это гибрид методов регрессии лассо и гребневой регрессии. Она использует как L1, так и L2 регуляризации, учитывая эффективность обоих методов.

min || Xw — y ||² + z_1|| w || + z_2|| w ||²

Практическим преимуществом использования регрессии лассо и гребневой регрессии является то, что это позволяет эластичной сети наследовать некоторую стабильность гребневой регрессии при вращении.

Несколько важных пунктов о регрессии эластичной сети:

  • Она создает условия для группового эффекта при высокой корреляции переменных, а не обнуляет некоторые из них, как метод лассо.
  • Нет ограничений по количеству выбранных переменных.

Вывод

Вот и все! 5 распространенных видов регрессии и их свойства. Все данные методы регуляризации регрессии (лассо, гребневая и эластичной сети) хорошо функционирует при высокой размерности и мультиколлинеарности среди переменных в наборе данных.

Регрессионный анализ полиномиальной модели;

8.1Метод наименьших квадратов

Метод наименьших квадратов(МНК) – основной метод статистической обработки результатов с целью получения математического описания объекта. Цель метода – получение регрессионной зависимости y=f(X1), которая с достаточной точностью описывала бы результат эксперимента. График зависимости y=f(X1) – это искомая кривая. Значениям фактора Х1, равным Х11, Х12, …, Х1N, соответствуют точки на кривой . Эти точки являются значениями выходной величины, рассчитанными по уравнению регрессии f=(X1).

(1.16)

Находим значение коэффициентов регресси a,b,c:

a = 0.0002 b = -0.1689 c = 46.0609

Уравнение модели в соответствии с найденными коэффициентами примет вид:

Y=-0,0002x 2 -0.1689 x+46.0609

На рисунке 3 представлен график зависимости у=f(x) полученной нами модели и точки зависимости ΔМ(Tt) по рассчитанным значениям ΔМ и средним значениям Tt для всех пяти заданных совокупностей данных.

Рисунок 5- Линейная зависимость ΔМ(Tt) от Tt

9 Определение суммарной погрешности измерения температуры

При проведении многократных измерений случайная погрешность может быть уменьшена во много раз.

Однако погрешность усредненного результата будет определяться не этой весьма малой случайной погрешностью, а не зависящей от числа усредняющих отсчетов систематической погрешностью.

Согласно ГОСТ 8.207-76 погрешность результата измерения определяется по следующим правилам:

‑ если границы неисключенной систематической погрешности Δсист и оценка СКО результата измерения σ связаны соотношением:

то следует пренебречь систематической составляющей погрешности и учитывать только случайную погрешность результата. При этом доверительные границы погрешности результата Δ = tβσ, где tβ — коэффициент Стьюдента, зависящий от доверительной вероятности β и числа проведенных измерений n;

‑ если же имеет место неравенство

то, наоборот, следует пренебречь случайной составляющей и результат характеризовать лишь границами его суммарной систематической погрешности Δ = Δсист.

При этом доверительные границы погрешности результата

Δ = ,

где tβ — коэффициент Стьюдента, зависящий от доверительной вероятности β и числа проведенных измерений n.

Таблица 7-Определение суммарной погрешности

Отсюда делаем вывод, что для данной последовательности измерений справедливо неравенство: .

Поэтому следует пренебречь случайной составляющей и результат характеризовать лишь границами его суммарной систематической погрешности Δ = ΔCист.

10 Расчет количества тепла, переносимого газом в единицу времени и погрешности такого измерения

Определить удельное теплосодержание и погрешность.

Удельное теплосодержание газа определяется по формуле:

,

где с – удельная теплоемкость газа,

G – массовый расход газа, кг/с;

t – температура газа в °С.

Косвенные измерения предполагают наличие функциональной связи:

Погрешность косвенного измерения:

Абсолютная погрешность: ;

Относительная: .

СКО функции:

Таблица 8-Расчет количества тепла для пяти выборок

Анализируя полученную погрешность можно сделать вывод, что она достаточна высокая, на это могло повлиять большая погрешность расхода газа и условия эксплуатации прибора.

Заключение

Согласно ГОСТ 8.207 — 76 оформление результатов измерений при симметричной доверительной погрешности результаты измерений представляют в форме

где — результат измерения.

Кроме того, из результата измерения следует исключить методическую погрешность, поэтому получаем следующие результаты по измерениям.

Тогда результаты, полученные при проведении расчетов по пяти выборкам, будут иметь вид:

первая выборка: (411,94±25,26)0,95 ;

вторая выборка: (498,42±25,29)0,95ºС;

третья выборка: (575,51±25,31)0,95ºС;

четвертая выборка: (653,28±25,34)0,95 ºС;

пятая выборка: (720,38±25,34)0,95ºС;

В результате проведенного статистического анализа мы определили значимость систематической погрешности в данных измерениях, и выяснили, что для данных измерений не существенной будет величина случайной ошибки. То есть для данных измерений точность снимаемых показаний не будет зависеть от количества измерений, достаточно будет однократного измерения, но результат необходимо корректировать с учетом условий эксплуатации прибора и исключать методическую погрешность прибора.

Была построена модель зависимости ΔМ(Tt), адекватно описывающая методическую погрешность для данных измерений. Анализируя полученную модель можно сделать вывод, что погрешность измерений будет увеличиваться с увеличением измеряемой величины, т.е. данный прибор корректно использовать для измерения величин в низком диапазоне.

Список использованных источников

1 Гмурман В. Е. « Теория вероятности и математическая статистика». М. Высш. Шк., 1998 – 479с.

2 Карпенко С.Л., Рудковский А.В. Метрология, стандартизация и сертификация: Методические указания по выполнению курсовой работы для студентов специальности 210200 «Автоматизация технологических процессов и производств» всех форм обучения. – Красноярск: СибГТУ, 2005.‑ 35 с.

3 Клюев А.С. проектирование систем автоматизации и контроля «ЛЕНАТОМиздат», 1990

4 ГОСТ 8.207‑76 «Прямые измерения с многократными наблюдениями. Методы обработки результатов наблюдений».

Ссылка на основную публикацию
Adblock
detector