Tag: scipy

поточечные операции на матрицах scipy.sparse

Можно ли применять, например, numpy.exp или аналогичные поточечные операторы ко всем элементам в scipy.sparse.lil_matrix или другом разреженном матричном формате? import numpy from scipy.sparse import lil_matrix x = numpy.ones((10,10)) y = numpy.exp(x) x = lil_matrix(numpy.ones((10,10))) # y = ???? numpy.exp(x) или scipy.exp(x) дает AttributeError , а numpy.exp(x.data) дает то же самое. благодаря!

Почему scipy.optimize.curve_fit не создает линию, наиболее подходящую для моих очков?

У меня есть набор точек данных (x и y в коде ниже), и я пытаюсь создать линейную линию, наилучшую по размеру в моих точках. Я использую scipy.optimize.curve_fit . Мой код создает строку, но не линию наилучшего соответствия. Я попытался использовать параметры модели модели для моего градиента и для моего перехвата, но каждый раз он создает […]

2D Ближайшая соседняя интерполяция в Python

Предположим, что мы имеем следующую таблицу поиска | 1.23 2.63 4.74 6.43 5.64 ——-|————————————– ——-|————————————– 2.56 | 0 0 1 0 1 4.79 | 0 1 1 1 0 6.21 | 1 0 0 0 0 В этой таблице содержится метка (имеющая только 0 и 1 с), значения x значения y . Как можно использовать […]

без запаха проглотить с numpy / scipy

кто-нибудь использовал бездонный ласточек с numpy / scipy для числовых / научных приложений? Это значительно быстрее в вашем опыте? Любые мнения были бы замечательными.

Включить Python для использования всех ядер для установки моделей scikit-learn

Я запускаю python 2.7 с ipython на Windows 8 64bit с системой, которая имеет 4 ядра. При установке модели scikit-learn использование ЦП составляет 50%, 25% от python и 25% от Chrome . Почему chrome использует столько ресурсов процессора, сколько python ? Есть ли многопоточная версия функции scikit-learn модели scikit-learn поэтому использование мультикодов может быть таким […]

Как рассчитать коинтеграции двух списков?

Заранее спасибо за вашу помощь! У меня есть два списка с некоторыми ценами акций, например: a = [10.23, 11.65, 12.36, 12.96] b = [5.23, 6.10, 8.3, 4.98] Я могу рассчитать соотношение этих двух списков: import scipy.stats scipy.stats.pearsonr(a, b)[0] Но я не нашел метода для расчета совместной интеграции двух списков. Не могли бы вы дать мне […]

Сжатие данных в python / numpy

Я смотрю на использование облака амазонки для всех моих потребностей в симуляции. Результирующие sim-файлы довольно большие, и я хотел бы переместить их на свой локальный диск для удобства анализа и т. Д. Вы должны платить за данные, которые вы переезжаете, поэтому я хочу как можно меньше сжать все мои sim-игры. Это просто массивы numpy, сохраненные […]

Поиск длины кубического B-сплайна

Используя функцию interopate.splprep scipy, получаем параметрический сплайн по параметру u , но область u не является линейным интегралом сплайна, это кусочно-линейная связь входных координат. Я попробовал integrate.splint , но это просто дает отдельные интегралы по u . Очевидно, что я могу численно интегрировать кучу декартовых дифференциальных расстояний, но мне было интересно, существует ли метод закрытой […]

Что это за массив Python? Он уже существует в Python?

У меня массив numpy: m = array([[4, 0, 9, 0], [0, 7, 0, 0], [0, 0, 0, 0], [0, 0, 0, 5]]) 4 столбца m обозначены следующим образом: c = array([ 10, 20, 30, 40]) Я хочу иметь возможность обрезать объект o таким образом, чтобы: o.vals[0,:] = array([4, 9]) o.vals[1,:] = array([7,]) o.vals[2,:] = array([]) […]

Двоичное хранение значений с плавающей запятой (от 0 до 1) с использованием менее 4 байтов?

Мне нужно сохранить массивный вектор numpy на диск. Прямо сейчас вектор, который я пытаюсь сохранить, составляет ~ 2,4 миллиарда элементов, а данные – float64. Это занимает около 18 ГБ пространства при сериализации на диск. Если я использую struct.pack () и использую float32 (4 байта), я могу уменьшить его до ~ 9 ГБ. Мне не нужно […]

Python - лучший язык программирования в мире.