Büyük veri nedir: Büyük veriyle ilgili en önemli şeyleri topladık. Pazarlama Ansiklopedisi Büyük övgülere sahip bir robot nedir?

2011 yılında oluşturulan ve kopyalanan toplam veri hacminin 1,8 zettabayta (1,8 trilyon gigabayt) yakın olabileceği, yani 2006 yılında oluşturulanlardan yaklaşık 9 kat daha fazla olabileceği bildirildi.

Daha katlanabilir

Korun büyük haraç Bilginin büyük yükümlülüklerinin analizinden daha fazlasını varsayalım. Sorun, kuruluşların büyük miktarlarda veri oluşturması değil, çoğunun geleneksel yapılandırılmış veritabanı formatıyla (web günlükleri, video kayıtları, metin belgeleri, makine kodu vb.) pek uyumlu olmayan bir formatta sunulmasıdır. coğrafi veriler. Her şey çeşitli farklı koleksiyonlarda, bazen de kurumsal sınırların ötesinde depolanır. Sonuç olarak şirketler, verileri arasında ilişki kurmak ve ondan değer elde etmek için gerekli araçlara ihtiyaç duymadan, mümkün olduğu kadar çok veriye erişebilirler. Buna, verilerin giderek daha sık güncellenmesi durumunu da ekleyince, geleneksel bilgi analizi yöntemlerinin, sürekli güncellenen büyük miktardaki veriyi yakalayamadığı bir durumla karşı karşıya kalıyorsunuz, bu da sonuç olarak ortaya çıkıyor. teknolojinin yolunu açıyor büyük haraç.

En güzel tasarım

Temel olarak anlıyorum büyük haraç Robotun verimliliğini artırmak, yeni ürünler oluşturmak ve rekabet gücünü artırmak için sıklıkla güncellenen ve farklı birimlerde bulunan, mükemmel hizmet ve çeşitlilik içeren bir depo ile bilgileri robota aktarır i. Danışmanlık şirketi Forrester kısa bir formülasyon veriyor: ` Harika haraçlar Verinin anlamını son derece pratikliğe taşıyan teknikleri ve teknolojileri entegre edin.

İş analitiği ile harika veriler arasındaki fark ne kadar büyük?

Fujitsu Avustralya'nın pazarlamadan sorumlu başkan yardımcısı ve teknolojiden sorumlu başkan yardımcısı Craig Batey, iş analizinin geçmişte bir işletmenin elde ettiği sonuçları şimdi işlem hızı olarak analiz eden tanımlayıcı bir süreç olduğunu söyledi. büyük haraçİşletmenize geleceğe yönelik öneriler sunarak transferlerin analizini yapmanızı sağlar. Büyük veri teknolojileri, iş zekası araçlarına kıyasla daha fazla veri türünü analiz etmenize olanak tanır ve bu da yalnızca yapılandırılmış varlıklardan daha fazlasına odaklanmanıza olanak tanır.

O"Reilly Radar ile Matt Slocum ne istediğinizi önemli büyük haraçİş analitiği de aynı öneme sahip olabilir (beslenmeyle ilgili kanıtların aranması), üç açıdan tek türe ayrılırlar.

  • Büyük veriler, iş analitiği gibi büyük miktardaki bilgilerin işlenmesi için kullanılır ve bu elbette büyük verinin geleneksel önemine karşılık gelir.
  • Daha fazla veriyi işlemek ve verileri değiştirmek için daha fazla veri kullanılır; bu da daha derin araştırma ve etkileşim anlamına gelir. Bazı durumlarda web sitesine bağlı olarak sonuçlar daha hızlı oluşturulur.
  • Büyük veriler, yapılandırılmamış verilerin işlenmesi için önemlidir ve bunların toplanmasından ve kaydedilmesinden faydalandıktan sonra bunları nasıl kullanacağımızı anlamaya başlıyoruz ve trend arayışını kolaylaştırmak için algoritmalara ve diyalog olasılığına ihtiyacımız var. bu masiflerin ortasında yer almaktadır.

Oracle tarafından yayınlanan "Oracle Information Architecture: The Architect's Career Behind Big Data" adlı teknik inceleme kitabına dayanarak, büyük verilerle çalışırken bilgiye, bir iş analizini yürütürken olduğundan farklı bir şekilde yaklaşırız.

Büyük verilerle çalışmak, iş analitiğinin temel süreci gibi değil, sonuç üreten basit veri birikimidir: Örneğin, harcamaların ödenmesine ilişkin verilerin sağlanması, pazar bazında satışlar için bir zorunluluk haline gelir. Büyük verilerle çalışılarak bunların sıralı modelleme yoluyla saflaştırılması sürecinden sonuç çıkar: Önce bir hipotez formüle edilir, istatistiksel, görsel ve anlamsal bir model oluşturulur ve hipotezin geçerliliği bu çerçevede doğrulanır. Ve sonra adım takılıyor. Bu süreç, ya görsel anlamların yorumlanmasını, bilgiye dayalı etkileşimli sorguların geliştirilmesini ya da aranan sonucu reddetmek için tasarlanmış uyarlanabilir "makine öğrenimi" algoritmalarının geliştirilmesini içerir. Üstelik böyle bir algoritmanın ömrü kısa olabilir.

Harika verileri analiz etme teknikleri

Büyük verileri analiz etmek için araçlara, istatistiklere ve bilgisayar bilimine (örneğin makine öğrenimi) dayanan çeşitli farklı teknikler vardır. Liste kapsamlı gibi görünmüyor ancak bu görüntü, çeşitli uygulama türleri için en büyük ihtiyacı içeriyor. Bununla birlikte öncüllerin yeni tekniklerin oluşturulması ve mevcut tekniklerin kapsamlı bir şekilde geliştirilmesi üzerinde çalışmaya devam edeceği anlaşılmaktadır. Ayrıca, bu yöntemlerden bazıları büyük veriler de dahil olmak üzere mutlaka durağan değildir ve daha küçük diziler için başarıyla kullanılabilir (örneğin, A/B testi, regresyon analizi). İnanılmaz bir şekilde, analiz edilebilecek dizi ne kadar geniş ve çeşitli olursa, çıktıda o kadar doğru ve ilgili veriler toplanabilir.

A/B testi. Her kontrol numunesinin yöntemi diğerlerine eşittir. Tim, örneğin diğer sakinler arasında bir pazarlama teklifine en iyi tepkiyi elde etmek için en uygun gösterge kombinasyonunu belirlemeye çalışıyor. Harika haraçlar sessiz bir yineleme yapmanıza ve böylece istatistiksel olarak anlamlı bir sonuç elde etmenize olanak tanır.

Birliktelik kuralı öğrenme. O halde etkileşimleri tanımlamak için bir dizi teknik. Büyük veri kümelerindeki değişken değerler arasındaki ilişki kuralları. Vikorist'te veri madenciliği.

sınıflandırma. Segmentteki müşterilerin davranışlarını pazara aktarmanıza (satın almalar, işlemler vb. hakkında kararlar vermenize) olanak sağlayan bir dizi teknik. Vikorist'te veri madenciliği.

Küme analizi. Nesneleri önceden bilinmeyen gizli işaretlere dayalı olarak gruplar halinde sınıflandırmak için istatistiksel bir yöntem. Vikorist'te veri madenciliği.

Kitle Kaynak Kullanımı. Çok sayıda dzherel'den veri toplama metodolojisi.

Veri birleştirme ve veri entegrasyonu. Müşterilerin yorumlarını analiz etmenize olanak tanıyan bir dizi yöntem sosyal önlemler ve satış sonuçlarını gerçek zamanlı olarak görüntüleyin.

Veri madenciliği. Sızdıran ürüne veya refakatçi kategorisine yönelik hizmetlere en uygun olanı belirlemenize, en başarılı çalışanların özelliklerini belirlemenize, refakatçilerin davranış modelini aktarmanıza olanak tanıyan bir dizi teknik.

Topluluk öğrenimi. Bu yöntemin tamamı, tahmin geliştirme yeteneğini daha da geliştiren tahmine dayalı modellerin yokluğuna dayanır.

Genetik algoritmalar. Bu yöntemle birleşip mutasyona uğrayabilen kromozomların görünümünü temsil etmek mümkündür. Doğal evrim süreçlerinde olduğu gibi en baskın birey hayatta kalır.

Makine öğrenme. Doğrudan bilgi biliminde (tarihsel olarak "parça zekası" adı eklenmiştir), bu, ampirik verilerin analizine dayalı kendi kendine talimat algoritmalarının oluşturulmasını gerektirir.

Doğal dil işleme (NLP). Doğal dil insanlarını bilgisayar bilimi ve dilbilimden tanımak için bir dizi yöntem.

Ağ analizi. Sınırlardaki düğümler arasındaki bağlantıları analiz etmek için bir dizi yöntem. Yüz sosyal ölçüm, yakındaki yatırımcılar, şirketler, gruplar vb. arasındaki ilişkileri analiz etmenize olanak tanır.

Optimizasyon. Bir veya daha fazla vitrinin dekorasyonuna yönelik katlama sistemlerini ve süreçlerini yeniden tasarlamaya yönelik bir dizi sayısal yöntem. Pazara sunulacak bir ürün grubunun stoklanması, yatırım analizinin yapılması vb. gibi stratejik kararların alınmasına yardımcı olur.

Desen tanıma. Öğrencilerin davranışsal modelini aktarmak için kendi kendine rehberlik unsurları içeren bir dizi teknik.

Tahmine dayalı modelleme. Önceden belirlenmiş olası bir gelişme senaryosunun matematiksel modelini oluşturmanıza olanak tanıyan bir dizi teknik. Örneğin, bir CRM sisteminin veritabanının analizi, aboneleri sağlayıcıları değiştirmeye teşvik etme konusunda yetenekli beyinler için faydalıdır.

Regresyon. Bayat ve bayat olmayan çeşitlerin değişimi arasındaki kalıpları belirlemek için bir dizi istatistiksel yöntem. Çoğu zaman tahminlerde bulunmak ve transferler yapmak gerekir. Veri madenciliğini vikorize eder.

Duygu analizi. Mahalle sakinlerinin ruh hallerini değerlendirmeye yönelik yöntemler, doğal dil tanıma teknolojilerine dayanmaktadır. Kokular, bahsettiğiniz nesneyle (örneğin canlı bir ürün) ilişkili bilgileri gizli bilgi akışından çıkarmanıza olanak tanır. Daha sonra, kararın kutupsallığını (olumlu veya olumsuz), duygunun aşamasını vb. değerlendirin.

Sinyal işleme. Radyo mühendisliğine dayalı olarak sinyal tanıma, gürültü ve ileri analiz için kullanılabilecek bir dizi teknik vardır.

Mekansal analiz. Mekansal verileri analiz etmek için bir dizi istatistiksel yöntem - yerellik topolojisi, coğrafi koordinatlar, nesne geometrisi. Jerel büyük haraç Coğrafi bilgi sistemleri (GIS) sıklıkla devreye girmektedir.

  • Revolution Analytics (matematiksel istatistikler için R dilini temel alır).

Bu listenin özellikle ilgi çekici olanı, son beş yıldır çoğu hisse senedi takipçisi için veri analizörü olarak test edilen açık kaynaklı bir yazılım olan Apache Hadoop'tur. Tıpkı Yahoo'nun Hadoop kodunu açık kaynak kodlu olarak yayınlaması gibi, BT endüstrisi de birdenbire Hadoop'a dayalı olarak doğrudan oluşturulmuş bir dizi ürün görmeye başladı. Neredeyse tüm günlük analiz özellikleri büyük haraç Hadoop ile entegrasyon için özellikler sağlayın. Distribütörleri hem startup hem de yüksek profilli dünya şirketleridir.

Büyük verileri yönetmek için pazar çözümleri

Dijital yığınla mücadelenin bir yolu olarak Büyük Veri Platformları (BDP, Büyük Veri Platformu)

Analiz etme imkanı büyük haraç Halk arasında Büyük Veri olarak adlandırılan bu durum kesinlikle bir fayda olarak algılanıyor. Bu gerçekten doğru mu? Akış dışı veri birikimini ne kadar süreyle tahmin edebilirsiniz? Dünyanın her yerindeki psikologların patolojik istifleme, slogomani veya mecazi olarak "Plyushkin sendromu" adını vermesinin üzerinden çok zaman geçti. İngilizce'de her şeyi hızlı bir şekilde toplama alışkanlığına hording denir (İngiliz istifinden - "Stok"). Akıl hastalıkları sınıflandırmasının arkasında, sigortaların ruhsal hastalıklara kadar uzanan bir sınıflandırması vardır. Dijital çağda, geleneksel konuşma yığıncılığının önüne, hem bireyi hem de kurum ve kuruluşun amaçlarını etkileyebilecek Dijital İstifçilik eklenmiştir.

Rusya'nın ışığı ve pazarı

Büyük Veri Ortamı - Ana katkıda bulunanlar

Toplama, işleme, yönetim ve analiz araçlarına ilgi büyük haraç Tüm BT şirketleri bunu açıklamadı ve bu da tamamen doğal. Her şeyden önce, elektrik işindeki koku tamamen bu olguya yapışıyor, diğer bir deyişle, büyük haraç Yeni pazar nişleri geliştirmek ve yeni ikameler elde etmek için inanılmaz fırsatlar ortaya koyuyorlar.

Piyasada büyük miktarda veri toplayarak iş yapmak isteyen çok sayıda startup vardı. Bazıları Amazon platformu üzerinde büyük baskı oluşturmak için hazır altyapıya güveniyor.

Galusyalılar Arasındaki Büyük Haraçların Teorisi ve Uygulaması

Geliştirme geçmişi

2017

TmaxSoft Tahmini: Büyük Veri, DBMS'nin modernizasyonuyla geliyor

İşletmeler biriktirdikleri büyük yükümlülüklerin şunlardan kaynaklandığını biliyorlar: önemli bilgi işleri ve müşterileri hakkında. Bir şirket bu bilgiyi başarılı bir şekilde yakalayabilirse rakiplerine göre önemli bir avantaja sahip olacak ve onlardan daha iyi ürün ve hizmetler sunabilecektir. Ancak birçok kuruluş hâlâ etkili bir şekilde rekabet edemiyor büyük haraç BT altyapısı küçültülmüş olanlar aracılığıyla, büyük miktardaki yapılandırılmamış veri dizilerinin işlenmesi ve analiz edilmesi ve bunlardan veri çıkarılması için gerekli depolama sistemleri, veri alışverişi süreçleri, yardımcı programlar ve programlar için gerekli kapasitenin sağlanması mümkün değildir Diğer bilgiler, TmaxSoft'ta yayınlandı .

Ayrıca, karmaşık verileri analiz etmek için gereken ve giderek artan işlem gücünün artması, kuruluşun eski BT altyapısına önemli yatırımların yanı sıra yeni eklentiler ve hizmetler geliştirmek için kullanılabilecek ek destek kaynakları gerektirebilir.

5 Şubat 2015'te Beyaz Saray, vikorist şirketlerin nasıl çalıştığını tartıştıkları bir ifade yayınladı. büyük haraç farklı alıcılar için farklı fiyatlar belirlemek; "fiyat farklılaştırması" veya "kişiselleştirilmiş fiyatlandırma" olarak bilinen bir uygulama. Bu, hem satıcılar hem de alıcılar için "büyük verinin" önemini açıklıyor ve yazarları, büyük verinin ortaya çıkmasıyla ve farklı fiyatlandırmayla ilişkili olan ve galip gelebilecek birçok sorunlu gıdanın olduğu sonucuna varıyor. genel ayrımcılık karşıtı mevzuat ve bölge sakinlerinin haklarını koruyan yasalar çerçevesi

Şu anda şirketlerin kişiselleştirilmiş pazarlama ve farklı fiyatlandırma bağlamında büyük verilerden nasıl yararlandığına dair anlatılacak gerçeklerden çok azının olduğu açıktır. Bu bilgi, satıcıların üç kategoriye ayrılabilecek fiyatlandırma yöntemleri sunduğunu gösterir:

  • çarpık bir poponun implantasyonu;
  • Demografik verilere dayalı yönlendirme ve farklı fiyatlandırma; Ben
  • Hedefli davranışsal pazarlama (davranışsal hedefleme) ve kişiselleştirilmiş fiyatlandırma.

Vivchennya çarpık alt: Tüketici pazarlamacılarının davranışlarını anlamak için, pazarlamacılar sıklıkla müşterilerin iki olası fiyat kategorisinden birine rastgele atandığı bu alanda deneyler yaparlar. "Teknik olarak, bu deneyler bir tür farklı fiyatlandırmadır ve geri kalanlar müşteriler için farklı fiyatlara neden olur; bu da "Tüm müşterilerin güveninin aynı fiyata harcanacağını" düşünenler için "ayrımcı olmadıklarını" gösterir. "

Direksiyon: Çalışanlara bağlı oldukları kurum ve demografik gruba göre ürün sunulması uygulamasıdır. Böylece, bir bilgisayar şirketinin web sitesi, kendileri hakkında sağladıkları bilgilere dayanarak (örneğin, alıcının bilimsel ve ticari alanda bir devlet kurumunun temsilcisi olup olmamasına bağlı olarak) aynı dizüstü bilgisayarı farklı türdeki alıcılara farklı fiyatlarla sunabilir. ayarlara veya özel bir kişiye) veya coğrafi dağılımlarına (örneğin, bilgisayarın IP adresine atanan) göre.

Amaca yönelik davranışsal pazarlama ve kişiselleştirilmiş fiyatlandırma: Bu durumlarda müşterilerin kişisel verileri, hedefli reklam ve belirli ürünlere yönelik özelleştirilmiş fiyatlandırma için kullanılır. Örneğin, çevrimiçi reklamverenler, reklam materyallerini geliştirmek amacıyla reklamlardan ve üçüncü taraf çerezlerinden çevrimiçi etkinlikleri hakkında veri toplar. Bu yaklaşım, bir yandan kişilerin ilgilerini çeken mal ve hizmet reklamlarını reddetmelerine olanak sağlarken diğer yandan da kişisel verilerinin (ör. Sitelerin tanıtımı, 'tıbbi ve mali hükümler için gerekli) herhangi bir kar amacı gütmeden toplandı.

Hedef odaklı davranışsal pazarlamanın önemli ölçüde genişlemesi muhtemel olsa da, çevrimiçi ortamda bireyselleştirilmiş fiyatlandırmaya ilişkin çok az kanıt bulunmaktadır. Benzer yöntemlerin hâlâ parçalanmış olması ya da şirketlerin bireysel fiyatlandırmaya başvurmak için acele etmemeleri (ya da daha çabuk saygı duruşunda bulunmaları) nedeniyle - belki de diğer sakinlerin olumsuz tepkisinden korktukları için - eksik beyan var. .

Yazarlar, "bireysel öğrenci için büyük verilerin geliştirilmesinin şüphesiz hem potansiyel getiriler hem de risklerle ilişkili olduğunu" belirtmektedir. Ayrımcılık ve ayrımcılık sorunları ortaya çıksa da, aynı zamanda ayrımcılık karşıtı temel kanunların ve bölge sakinlerinin haklarını koruyan kanunların bu sorunları aşmak için yeterli olduğu da teyit edilmektedir. Bununla birlikte, şirketlerin gizli bilgileri şeffaf olmayan bir şekilde veya mevcut düzenleyici çerçeveye uymayan şekillerde çalması durumunda, bu durumlarda "sürekli kontrol" ihtiyacı konusunda da hemfikirdirler.

Bu kanıtlar, Beyaz Saray'ı "büyük veri"deki durgunluk, internetteki ayrımcı fiyatlandırma ve Amerikan vatandaşlarının mirası hakkında bilgilendirmeye devam ediyor. Daha önce, Beyaz Saray'ın çalışma grubunun büyük nedenlerden ötürü 2014 gazetesinde bu diyetle ilgili kanıtlarını yayınladığı bildirilmişti. Federal Ticaret Komisyonu (FTC) da 2014 baharında büyük verilerin bozulmasıyla bağlantılı ayrımcılıkla ilgili düzenlediği bir seminerde bu konuyu ele aldı.

2014

Gartner "Büyük Saygılar" hakkındaki mitleri araştırıyor

Gartner, 2014 sonbaharında yazdığı analitik bir notta, BT arşivindeki Büyük Veri efsanelerinin kapsamının düşüklüğünü ve bunların ortaya çıkışını yeniden değerlendirdi.

  • Büyük Haraçların işlenmesine yönelik tüm sistemler bizim için uygulanacaktır

Büyük Veri teknolojilerine olan ilgi tüm zamanların en yüksek seviyesinde: Gartner analistlerinin bilgilendirdiği kuruluşların %73'ü halihazırda ilgili projelere yatırım yapıyor veya bu projelerden personel alıyor. Ancak bu girişimlerin çoğu hâlâ başlangıç ​​aşamasında ve katılımcıların yalnızca %13'ü bu tür kararları zaten vermiş durumda. En zor şey, Büyük Veriden nasıl gelir elde edileceğini ve neyle başlayacağını bulmaktır. Pek çok kuruluş pilot aşamada takılıp kalıyor ve parçalar yeni teknolojiyi belirli iş süreçlerine bağlayamıyor.

  • Elimizde o kadar çok veri var ki, bunların içindeki çeşitli ayrıntılar konusunda endişelenmemize gerek yok.

BT uzmanları, verilerdeki diğer kusurların, büyük yükümlülükler analizinin temel sonuçlarına müdahale etmemesine saygı duyar. Analistler, çok fazla veri olması durumunda cilt bakımının sonuç üzerinde daha az etkiye sahip olacağını ve kendilerine daha fazla zarar geleceğini söylüyor. Öte yandan, verilerin analizinin büyük bir kısmı dışsal, bilinmeyen yapıda ve benzerlikte olduğundan merhametin güvenilirliği artar. Bu bakımdan Büyük Veri dünyasında nezaket gerçekten çok önemlidir.

  • Büyük Veri teknolojileri veri entegrasyonu ihtiyacını karşılıyor

Büyük Veri, okuma dünyasında otomatik şema oluşturma yoluyla verileri orijinal formatta işleme olasılığını takdir ediyor. Çeşitli veri modellerini kullanarak bu cihazlardan gelen bilgileri analiz edebilmek önemlidir. Son kullanıcıların herhangi bir veri setini kendi takdirine göre yorumlayabilmesinin de mümkün olması önemlidir. Aslında çoğu geliştirici, verilerin tutarlı bir şekilde biçimlendirilmesi durumunda ve bilgilerin bütünlüğü ve nasıl çalıştığı adına hazır şemalı geleneksel yönteme ihtiyaç duyar. Vikoristan'ın komut dosyasına girin.

  • Büyük miktarda veri, karmaşık analizler için hiçbir vikorizm duygusuna sahip değil.

Bilgi yönetim sistemi yöneticileri, veri oluşturma konusunda zaman kaybetmenin hiçbir anlamı olmadığının ve karmaşık analitik sistemlerin yeni veri türleriyle güncellendiğinin bilincindedir. Aslında birçok gelişmiş analitik sistemi veri ambarlarından bilgi toplar. Diğer durumlarda, Büyük Veri işleme sistemleri tarafından analiz edilmeden önce yeni veri türlerinin önceden hazırlanması gerekir; verilerin uygunluğu, birleştirme ilkeleri ve gerekli tutarlılık düzeyi hakkında kararlar vermek gerekir - bu tür bir hazırlık benzer şekilde yapılabilir.

  • Veri manastırlarının yerini veri gölleri alacak.

İşverenlerin, depolama yerine veya analitik altyapının kritik öneme sahip unsurları olarak konumsal veri göllerine asistanlar eklemesi doğrudur. Temel veri gölü teknolojileri olgunluktan, işlevsellik ve güç yönünden yoksundur. Veri yönetiminden sorumlu olanlar, gölün aynı gelişim düzeyine ulaşmasını bekleyin, Gartner'a saygı gösterin.

Accenture: Sistem tarafından yayınlanan harika verilerin %92'si sonuçtan memnun

Büyük beslenme verilerinin ana başarıları arasında şunlar yer aldı:

  • “Yeni gelir arayışı” (%56),
  • “Müşteri farkındalığının artması” (%51),
  • “yeni ürün ve hizmetler” (%50)
  • “yeni müşterilerin akını ve eski müşterilerin sadakatinin korunması” (%47).

Yeni teknolojilerin devreye girmesiyle birlikte birçok şirket geleneksel sorunlarla karşı karşıya kaldı. En büyük engel ise yüzde 51'i için güvenlik, yüzde 47'si için bütçe, yüzde 41'i için gerekli personel eksikliği, yüzde 35'i için ana sistemle entegrasyondaki zorluklar oldu. Neredeyse tüm şirket yöneticileri (yaklaşık %91) personel sıkıntısı sorununu çözmeyi ve mükemmel veriler için uzman tutmayı planlıyor.

İşletmeler yaklaşmakta olan büyük veri teknolojileri konusunda iyimser. %89'u internet kadar işi de değiştireceklerine saygı duyuyor. Ankete katılanların %79'u, büyük verilerle uğraşmayan şirketlerin rekabet avantajını kaybettiğini söyledi.

Bu arada Duma'dakiler büyük haraçlara saygı göstermeye hazır olanlardan bahsediyordu. Yanıt verenlerin %65'i "harika veri dosyalarına", %60'ı "derin analiz ve analize" ve %50'si "görselleştirme araçlarından gelen verilere" değer veriyor.

Madrid büyük veriyi yönetmek için 14,7 milyon euro harcıyor

U lipny 2014 r. Madrid'in şehrin altyapısını yönetmek için büyük veri teknolojilerini kullandığı öğrenildi. Projenin maliyeti 14,7 milyon Euro olup, önerilen çözümün temeli büyük verilerin analizi ve yönetimine yönelik teknolojiler olacaktır. Bizim yardımımızla yönetimimiz bir hizmet sağlayıcı olarak birbirleriyle çalışır ve hizmet düzeyine göre ödeme yapar.

Sokaklarda, aydınlatmada, sulamada, yeşil alanlarda çalışan, araziyi temizleyen ve ortadan kaldıran, ayrıca atık işleyen idarenin müteahhitlerinden bahsediyoruz. Proje süresince, Microsoft hizmetlerinin çalışmalarının etkinliğine ilişkin 300 temel gösterge, şu anda 1,5 bin olan özel müfettişler için bölünmüştür. çeşitli yeniden doğrulamalar ve yok oluşlar. Ayrıca tesis, Madrid iNTeligente (MiNT) - Smarter Madrid adlı yenilikçi bir teknoloji platformu geliştirmeye devam edecek.

2013

Uzmanlar: Büyük Veride Pik modası

Veri yönetimi pazarındaki tüm satıcılar şu anda Büyük Veri yönetimine yönelik teknolojiler geliştiriyor. Bu yeni teknolojik trend, hem perakendeciler hem de Galouze analistleri ve bu tür çözümlerin potansiyel geliştiricileri olmak üzere profesyonel endüstri tarafından da aktif olarak tartışılmaktadır.

Datashift şirketinin de belirttiği gibi 2013'ün sonunda şu konu hakkında bir tartışma yaşanacak: büyük haraç» olası tüm boyutları taşıdı. Sosyal ağlardaki bir dizi Büyük Veri gizemini analiz eden Datashift, 2012 yılında bu terimin dünya çapında yaklaşık 1 milyon farklı yazar tarafından oluşturulan gönderilerde yaklaşık 2 milyar kez kullanıldığını tespit etti. Bu, yılda 260 gönderiye eşdeğerdir ve bilmecelerin zirvesi, yılda 3070 bilmeceye ulaştı.

Gartner: Kozhen, Büyük verilere yatırım yapmaya hazır başka bir BT yöneticisi

Gartner, Büyük Veri teknolojileriyle yapılan pek çok denemenin ve 2013'teki ilk lansmanın ardından bu tür çözümlerin benimsenmesinin önemli ölçüde artacağını öngörüyor. Araştırmacılar dünyanın dört bir yanındaki BT liderlerine anket yaptı ve bunların %42'sinin halihazırda Büyük Veri teknolojisine yatırım yaptığını veya yakın gelecekte bu tür yatırımlar yapmayı planladığını buldu (Şubat 2013 verileri).

Şirketler işleme teknolojilerine para harcıyor büyük haraç Bilgi ortamı hızla değişiyor ve bilgi işlemede yeni yaklaşımlar gerektiriyor. Pek çok şirket, büyük miktarlardaki verilerin kritik öneme sahip olduğunu ve bunlarla çalışmanın geleneksel bilgi ve işleme yöntemleriyle elde edilemeyen faydalar elde etmelerine olanak sağladığını zaten öğrenmiştir. Ayrıca ZMI'lar arasında bu harika verilerin sürekli takdir edilmesi ileri teknolojilere olan ilgiyi artırıyor.

Gartner'ın başkan yardımcısı Frank Buytendijk, yayın şirketinin çağrılarından ilham aldı; çünkü şirketin faaliyetleri, rakiplerin Büyük Veri konusunda uzmanlaşma konusunda karşılaştıkları tedirginliği vurguluyor.

"Övünmek zor, 'büyük veri' teknolojilerine dayalı fikirlerin hayata geçirilmesine yönelik olanaklar neredeyse sınırsız" dedi.

Gartner, 2015 yılına kadar Global 1000 şirketlerinin %20'sinin "bilgi altyapısı"na stratejik odaklanmayı benimseyeceğini öngörüyor.

“Büyük veri” işleme teknolojilerinin getirdiği yeni fırsatların ardından kuruluşlar artık çeşitli bilgilerin toplanması ve saklanması sürecini organize ediyor.

Genel kuruluşların ve kamu kuruluşlarının yanı sıra endüstriyel şirketler için iş dönüşümü için en büyük potansiyel, bilgi olarak kalan karanlık veriler adı verilen birikmiş verilerde yatmaktadır. e-mail ile, multimedya ve diğer benzer içerikler. Gartner'a göre veri taşıyıcı, farklı türdeki bilgilerle baş etmeyi öğrenenlere yardımcı olacak.

Cisco araştırması: Büyük Veri, BT bütçelerinin artırılmasına yardımcı olacak

Bağımsız analitik şirket InsightExpress tarafından 18 ülkede gerçekleştirilen Cisco Connected World Technology Report (Cisco Bağlantılı Dünya Teknoloji Raporu) başlıklı çalışma (2013 baharı) kapsamında, 1.800 üniversite öğrencisi ve aynı sayıda genç faşist, akşam 18'den akşam 30'a kadar eğitim gördü. Projelerin hayata geçirilmesi öncesinde BT departmanlarının hazır olma düzeyini belirlemek amacıyla test yapıldı. Büyük veri bununla ilgili sorunlara, bu tür projelerin teknolojik yönlerine ve stratejik değerine ilişkin açıklamaları reddederiz.

Çoğu şirket verileri toplar, kaydeder ve analiz eder. Büyük Veri ile bağlantılı birçok şirketin bir dizi karmaşık iş ve bilgi teknolojisi sorunlarıyla karşı karşıya olduğu görülüyor. Örneğin, 60 yüzlerce katılımcı Büyük Veri çözümlerinin karar verme süreçlerini iyileştirebileceğini ve rekabet gücünü artırabileceğini söylerken, yalnızca 28 yüzlerce katılımcı bilgi biriktirdikçe halihazırda gerçek stratejik avantajlar geliştirdiklerini söyledi.

BT çalışanlarının yarısından fazlası, teknolojide, personelde ve mesleki becerilerde ilerlemeler olacağından Büyük Veri projelerinin kuruluşlarındaki BT bütçelerini artırmaya yardımcı olacağına inanıyor. Üstelik ankete katılanların yarısından fazlası, bu tür projelerin 2012 yılında şirketlerinin BT bütçelerini artıracağına inanıyor. Büyük Veri'nin önümüzdeki üç yıl içinde bütçelerini artıracağına dair 57 yüzlerce fikir.

Seksen yüz katılımcı, tüm (veya diğer şirketlerin) Büyük Veri projelerinin zayıf hesaplamalarda durgunluğa yol açacağını söyledi. Dolayısıyla, ileri teknolojilerin genişlemesi, yaygın Büyük Veri çözümlerinin hızına ve bu çözümlerin iş dünyası için değerine yansıyabilir.

Şirketler, hem yapılandırılmış hem de yapılandırılmamış çeşitli türlerdeki verileri toplar ve çıkarır. Çalışmanın katılımcıları tarafından vurgulanan unsurların ekseni (Cisco Bağlantılı Dünya Teknoloji Raporu):

BT çalışanlarının neredeyse yarısı (48 yüz metrekare), en yakın iki nehir boyunca kendi sınırları boyunca savaş öncesi genişleme öngörüyor. (Bu, özellikle 68 yüz bin gıda ürününün böyle bir bakış açısına ulaştığı Çin için tipiktir ve Çin için 60 yüz bin). 23 Yüzlerce katılımcı, öndeki iki kayayı gererek orta derecede önem taşıyan bir üç kat değer buluyor. Ayrıca 40 yüzden fazla katılımcı sınır trafiğindeki hızlı artışa hazır olduklarını beyan etti.

27 yüzlerce çalışan, net BT politikalarına ve bilgi güvenliği uygulamalarına ihtiyaç duyduklarını öğrendi.

21 yüz metre, iletim kapasitesinin arttırılmasını gerektirecektir.

Büyük Veri, BT departmanlarının değerini artırması ve iş birimleriyle yakın bağlantılar kurması için yeni fırsatlar açarak gelirlerini artırmalarına ve şirketin mali gücünü artırmalarına olanak tanıyor. Büyük Veri projeleri, BT yan kuruluşu için stratejik bir ortak haline geldi.

Ankete katılanların %73'üne göre BT'nin kendisi, Büyük Veri stratejisinin uygulanmasının ana itici gücü olacak. Aynı zamanda bu stratejinin uygulanmasından önce diğer sektörlerin de sürece dahil olacağını unutmamak gerekir. Önümüzde şu dallara ihtiyaç var: finans (24 yüz katılımcının adı), bilimsel araştırma (20 yüz), operasyonel (20 yüz), mühendislik (19 yüz) ve IV pazarlama (15 yüz) bin) ve satışlar (14 yüz bin).

Gartner: Büyük Veriyi Yönetmek Milyonlarca Yeni Çalışana İhtiyaç Duyuyor

Dünya BT harcamaları 2013 yılına kadar 3,7 milyar dolara ulaşacak; bu, 2012'deki bilgi teknolojisi harcamalarından %3,8 daha fazla (yıl sonu tahmini 3,6 milyar dolar). Segment büyük haraç Gartner'a göre (büyük veri) giderek artan bir hızla gelişiyor.

2015 yılına kadar bu alanda 4,4 milyon işçi vardı Bilişim Teknolojileri 1,9 milyon çalışanla büyük verinin hizmeti yaratılacak. Üstelik, BT sektörünün sınırları ötesinde üç ek iş yaratıldığında, Amerika Birleşik Devletleri'ndeki insanlar yakında bilgi ekonomisini desteklemek için çalışan 6 milyon kişiye sahip olacaklar.

Gartner uzmanlarına göre asıl sorun, ülkede yetenek eksikliğinin olması: Örneğin, hem özel hem de ulusal kamu bilgi sistemi, yeterli sayıda nitelikli eleman sağlama kapasitesine sahip değil. personel. Ayrıca yeni iş öngörülerine göre sadece üçte birine BT personeli sağlanacak.

Analistler, yüksek vasıflı BT personeli rolünün onlara acilen ihtiyaç duyan şirketler tarafından oynanacağına inanıyor, çünkü bu tür uydular onlar için yeni bilgi ekonomisi Maybutnyogo'ya açılan bir kapı olacak.

2012

"Büyük Haraçlar" hakkındaki ilk şüphecilik

Ovum ve Gartner'dan analistler 2012'nin moda konularının büyük haraçİllüzyonu bırakmanın zamanı gelebilir.

"Büyük Veri" terimi genellikle sensörler ve diğer cihazlar da dahil olmak üzere sosyal medyadan çevrimiçi hale getirilen sürekli büyüyen bilgi kütlesinin yanı sıra Vykoristlerin verileri işlemek ve önemli işleri belirlemek için kullandığı giderek artan sayıda araç anlamına gelir. kendi temelinde önemlidir - Trendler.

Ovum analistlerinden Tony Bayer, "2012'de pazarlamacılar, harika veri fikri aracılığıyla (veya buna saygı duymadan) bu eğilimi büyük bir umutla izlediler" dedi.

Bayer, DataSift'in büyük verilerin gizemlerine ilişkin geriye dönük bir analiz gerçekleştirdiğini bildirdi.

Sezgisel olarak anlamını anladığımız moda sözcüklerle ve anlamlarla düzenli olarak karşılaşırız, ancak bu şeyin ne olduğuna ve nasıl çalıştığına dair net bir resme sahip değiliz.

Bunlardan biri Büyük Veridir.Rus dilinde, kelimenin tam anlamıyla çevirisini alabilirsiniz - "büyük veri", ancak daha çok insanlar bunu şu şekilde söyler ve yazar: Büyük Veri. Herkes melodik bir şekilde bu kelimeyi internette duymuştur ve bu zordur, ancak ince dijital dünyadan uzakta, tam olarak önemli olan şeyi ilk önce ofis beşeri bilimleri anlamıyor

Koristuvach'ların en geniş kitlesinin çamurundaki bu boşluğu doldurmaya yönelik tek girişim, en sevdiğimiz yazarlardan biri olan Bernard Marr'ın makalesidir. Büyük Veri Nedir? Cilt için süper basit bir açıklama". Sofistike bir jargon olmadan, bu olgunun cilt için anahtar fikirlerini tek bir şekilde açıklamak, o faaliyet alanını aydınlatmak için gerekli değildir.

Aslında geri kalan birkaçımız zaten Büyük Veri'nin iyice nüfuz ettiği bir dünyada yaşıyoruz, ancak neyin hala aynı olduğu anlayışında kaybolmaya devam ediyoruz. Yüksek teknolojiler dünyası ve büyük miktarda bilginin işlenmesi, tüm yeni seçenekler de dahil olmak üzere hızla değiştiğinden, Büyük Veri kavramının kendisinin sürekli olarak dönüştürüldüğü ve yeniden yorumlandığı kısmen doğrudur. Ve bu bilgiye olan talep sürekli artıyor.

Peki Büyük Veri – 2017 ne anlama geliyor?

Her şey Vibukh'un dijital bir serinin başlangıcından itibaren yarattığımız büyük miktarda veriyi büyütmesiyle başladı. Bu, esas olarak bilgisayarların sayısının ve karmaşıklığının artması, İnternet'in genişlemesi ve hepimizin içinde yaşadığı gerçek, fiziksel dünyadan bilgi almamıza ve onu dijital ve veriye dönüştürmemize olanak tanıyan teknolojilerin gelişmesi nedeniyle mümkün olmuştur. .

2017 yılında internete girdiğimizde, GPS donanımlı akıllı telefonlarımızı kullandığımızda, sosyal ağlarda arkadaşlarımızla bağlantı kurduğumuzda, mobil programlardan veya müzikten keyif aldığımızda, alışveriş yaptığımızda veri üretiyoruz.

Faaliyetlerimiz her türlü dijital işlemi içerdiğinden dolayı rahatsız edilmemek adına kendimizi anonim dijital izlerden mahrum bıraktığımızı söyleyebiliriz. Bu sonsuza kadar olabilir.

Üstelik makinelerin kendileri tarafından üretilen verinin hacmi de hızla artıyor. Akıllı aksesuarlarımız birbirleriyle iletişim kurduğunda veriler oluşturulur ve iletilir. Dünyanın her yerindeki viral işletmeler gece gündüz veri toplayan ve ileten cihazlarla donatılmıştır.

Yakın gelecekte sokaklarımız, dünyanın dört bir yanından gelen haritalara ve gerçek zamanlı olarak oluşturulan verilere dayanarak bağımsız olarak rota çizen sürücüsüz arabalarla dolu olacak.

Büyük Veri ile neler yapabiliriz?

Büyük Veri'nin kalbinde, sonsuz büyüyen duyusal bilgi akışı, fotoğraflar, kısa mesajlar, ses ve video verileri yatıyor ve bunu, bunun birçok nedenini tespit etmek imkansız olacak şekilde analiz edebiliyoruz.

Aşağıdakilere yardımcı olmak için Büyük Veriye dayalı projeler derhal başlatıldı:

- Hastalıkları tedavi edin ve kanseri kurtarın. Büyük Veri bilimine dayanan tıp, çok sayıda tıbbi kayıt ve görüntüyü analiz ederek erken teşhise olanak tanır ve yeni tedavi yöntemlerinin oluşturulmasını kolaylaştırır.

- Açlıkla mücadele. Kırsal krallık, kaynakların ekosisteme minimum girdiyle verimi maksimuma çıkaracak ve makine kullanımını ve mülkiyeti optimize edecek şekilde kullanılmasına olanak tanıyan mevcut Büyük Veri devrimini yaşıyor.

- Uzak gezegenleri ortaya çıkarın. Örneğin NASA, birçok veriyi analiz ediyor ve uzak dünyalarda gelecekteki görevlerin bir modelini ortaya çıkarıyor.

- Üst durumları aktarın farklı niteliktedir ve olası hasarı en aza indirir. Sayısal sensörlerden gelen veriler, herhangi bir saldırı olduğunda ve acil durumda insanların hayatta kalma şansını artıran olası davranışları aktarılabiliyor.

- Kötülük yapanlardan kaçının Kaynakların daha verimli dağıtımına ve en çok ihtiyaç duyulan yere yönlendirilmesine olanak tanıyan modern teknolojilerin kullanılması.

Ve çoğumuz için: Büyük Veri sıradan insanların hayatlarına hem basit hem de basit bir şekilde yardımcı oluyor; buna çevrimiçi alışveriş, gezi planlama ve metropolün zihnini yönlendirme de dahildir.

Uçak bileti almak için en uygun zamanı bulmak ve hangi film veya diziyi izleyeceğinize karar vermek Büyük Veri robotlarıyla çok daha kolay hale geldi.

Bu nasıl çalışır?

Büyük Veri şu prensibe göre çalışır: Bir şey hakkında ne kadar çok şey bilirseniz, bundan sonra ne olacağını o kadar doğru söyleyebilirsiniz. Yakındaki verilerin seviyelendirilmesi ve aralarındaki bağlantılar (muazzam sayıda veriden ve aralarındaki inanılmaz sayıda olası bağlantıdan bahsediyoruz) kişinin kalıpları daha erken tanımlamasına olanak tanır. Bu, sorunun temeline inmeyi ve bu veya başka bir süreçle nasıl başa çıkabileceğimizi anlamamızı mümkün kılar.

Çoğu zaman, büyük miktarlardaki bilgilerin işlenmesi süreci, toplanan verilere dayalı modellerin çalıştırılmasını ve temel ayarlamaların kademeli olarak değiştirildiği simülasyonların çalıştırılmasını içerir; bu sırada sistem, "Ayarlamanın" olası bir sonuca nasıl yol açtığını izler.

Milyonlarca simülasyonun analizi, model (gerekli devre) bulununcaya kadar veya virüse yardım edecek "aydınlanma" oluşana kadar tüm olası seçeneklerin seçimi de dahil olmak üzere bu süreç tamamen otomatiktir. başlamak.

Bildiğimiz nesnelerin yanı sıra, veriler yapılandırılmamış bir biçimde alındığından, biz insanların aşina olduğu ortaları ve durdurucuları olan tablolara yerleştirilmesi zordur. Uydu fotoğraflarından Instagram veya Facebook'ta yayınladığınız selfie'lere, ayrıca e-posta ve anlık mesajlaşma veya telefon aramalarındaki girişlere kadar büyük miktarda veri, görüntü ve video olarak aktarılır.

Büyük Veri, her karışık ve çeşitli veri akışına pratik bir yer vermek için genellikle yapay zeka ve makine öğrenimini (bilgisayardaki bir program programı başlattığında) içeren en son analiz teknolojilerini kullanır.

Bilgisayarlar da diğer bilgilerin neyi temsil ettiğini anlamaya başlıyor (örneğin görüntüleri, kelimeleri tanımak) ve insanlardan çok daha hızlı çalışabiliyorlar.

Harika kardeşim?

Günümüzün Büyük Verisinin bize sağladığı benzeri görülmemiş yeteneklerle orantılı olarak, onunla ilişkili faydaların sayısı da artıyor.

Spesifik verilerin eksikliği. Büyük Veri, özel hayatımıza dair büyük miktarda bilgi topluyor. Zindanda saklamak istediğimiz pek çok bilgi var.

EMNİYET. Belirli, görünür bir işaret uğruna tüm kişisel verilerimizi bir makineye aktarmanın korkunç bir şey olmadığını mı düşünüyoruz, ancak verilerimizin güvenli bir yerde saklanmasını umabilir miyiz?
Bunu bize kim ve nasıl garanti edebilir?

AYRIMCILIK. Her şey biliniyorsa, Büyük Veri'nin onlar hakkında bildiklerine dayanarak insanlara karşı ayrımcılık yapmak mümkün müdür? Bankalar kredi geçmişinizi kontrol eder ve sigorta şirketleri de sizin hakkınızda bildiklerine dayanarak araba sigortası fiyatlarınızı kontrol eder. Ne kadar uzağa gidebilirsin?

Riskleri en aza indirmek için şirketlerin, devlet kurumlarının ve özel kişilerin hakkımızda öğrenebileceklerini koruyacağı ve herhangi bir nedenle bilgi kaynaklarına erişimimizi sınırlayacağı varsayılabilir.

Tüm başarılarımıza rağmen, her şeyin aynı zamanda Büyük Veri'nin bilinmeyen kısmıyla ilgili olduğunu da görebiliyoruz. Şimdiye kadar insanlar son birkaç gündür haberlere kafa yoruyorlardı, ta ki hastalığın Büyük Veri'nin avantajlarını kendi amaçları için kullanmak isteyen işlerin geldiği noktaya gelene kadar. Ancak bu, felaketle sonuçlanabilecek sonuçlarla tehdit edebilir.

Peredmova

"Büyük veri", veri analizi, tahmine dayalı analitik, veri madenciliği ve CRM konularına adanmış tüm profesyonel konferanslarda ortaya çıkan yeni ve moda bir terimdir. Terim, açıkça büyük veri hacimleriyle çalışmanın gerekli olduğu ve organizasyonel sürece yönelik veri akışının akışkanlığında sürekli bir artışın olduğu alanlarda kullanılır: ekonomi, bankacılık, üretim, pazarlama, telekomünikasyon Bilgi, web analitiği, tıp vb. .

Aynı zamanda bilginin hızla birikmesi nedeniyle veri analiz teknolojileri de hızla gelişiyor. Müşterileri benzer benzerliklere sahip gruplara ayırmak artık mümkün olmadığından, artık bir cilt müşterisi için gerçek zamanlı modeller oluşturmak, örneğin Inter'deki hareketlerini bir arama yapmak için analiz etmek mümkün. özel ürün. Konut sakininin çıkarları analiz edilebiliyor ve oluşturulan modele göre uygun reklam veya özel teklifler gösterilebiliyor. Modelin aynı zamanda gerçek zamanlı moda ayarlanıp sıfırlanabilmesi de kaçınılmaz olarak birçok riske yol açacaktır.

Örneğin telekomünikasyon sektöründe teknolojinin gelişmesi fiziksel genişlemeyi gerektiriyor eski telefonlar yöneticilerinin fikri ve öyle görünüyor ki, reklam bilgilerinin görüntülendiği bilim kurgu filmi “Özel Bir Düşünce” (2002)'de anlatılan fikir kaçınılmaz olarak gerçeğe dönüşecek. alışveriş merkezleri sürece dahil olan belirli bireylerin çıkarlarını korudu.

Aynı zamanda yeni teknolojilerin birikmesinin hayal kırıklığı yaratabileceği durumlar da vardır. Örneğin, veriler seyrek olduğunda ( Seyrek veri), eyleme dair önemli bir fikir verir ve oldukça değerlidir, ancak Harika haraçlar Dağları tanımlayan (Büyük Veri) çoğu zaman gerçek bilgi değildir.

Bu makaleleri meta - Büyük Veri'nin yeni yeteneklerini açıklayın ve tartışın ve bunun nasıl bir analitik platform olduğunu gösterin İSTATİSTİK StatSoft, süreçleri ve görevleri optimize etmek için Büyük Veriyi etkili bir şekilde kullanmanıza yardımcı olabilir.

Büyük Veri ne kadar büyük?

Elbette bu yemekle ilgili doğru cümle kulağa gelebilir: “Bu uzanmak...”

Şu anda tartışılan Büyük Veri kavramları, verileri terabayt mertebesinde tanımlamaktadır.

Uygulamada (gigabayt veya terabaytlardan bahsettiğimizde), bu tür veriler "geleneksel" veritabanları ve standart veritabanları (veritabanı sunucuları) kullanılarak kolayca kaydedilebilir ve saklanabilir.

Yazılım güvenliği İSTATİSTİK Vikorist'in verilere erişme (okuma), tahmine dayalı (ve puanlama) modeller oluşturma ve oluşturma algoritmalarına yönelik zengin akış teknolojisi, böylece bu tür veri seçimleri kolayca analiz edilebilir ve özel araçlar gerektirmez.

Mevcut bazı StatSoft projeleri yaklaşık 9-12 milyon satırlık örnekler üretmektedir. Risk ve tahmine dayalı modeller oluşturmak için bunları bir veri ambarından toplanan ve düzenlenen 1000 parametreyle (değişebilir) çarpın. Böyle bir dosyanın boyutu yalnızca 100 gigabayt civarındadır. Bu elbette küçük bir veri kütlesi değil, ancak boyutu standart veritabanı teknolojisinin yeteneklerini aşmıyor.

Ürün hattı İSTATİSTİK toplu analiz ve birim başına puanlama modelleri için ( İSTATİSTİK Kurumsal), kararların gerçek zamanlı modda alınması ( İSTATİSTİK Canlı Skor) ve modeller oluşturmaya ve yönetmeye yönelik analitik araçlar ( İSTATİSTİK Veri Madenci, Karar Verme) çok çekirdekli işlemcilere sahip birden çok sunucuda kolayca ölçeklenir.

Pratikte bu, analitik modellerin çalışmasında (örneğin, kredi riski tahminleri, şahraistlerin güveni, holdinglerin güvenilirliği vb.) operasyonel kararlar almamıza olanak tanıyan yeterli esnekliğin olduğu anlamına gelir. belki er ya da geç standart araçlar kullanılarak ulaşılabilir. İSTATİSTİK.

Verinin büyük yükümlülüklerinden Büyük Veriye

Kural olarak, Büyük Veri tartışması, hacmi birkaç terabayttan çok daha büyük olan veri koleksiyonlarına (ve bu tür koleksiyonlara dayalı analizlere) odaklanmaktadır.

Veri koleksiyonları bin terabayta kadar büyüyebileceği gibi petabaytlara da (1000 terabayt = 1 petabayt) kadar büyüyebilir.

Petabaytların ötesinde, veri birikimi eksabaytlarla ölçülebilir; örneğin, küresel imalat sektörünün 2010 yılında toplam 2 eksabayt yeni bilgi biriktirdiği tahmin edilmektedir (Manyika ve diğerleri, 2011).

Verilerin daha da yoğun bir şekilde birikeceği ve birikeceği fırtınalar var.

Örneğin enerji santrali gibi bir nükleer endüstride her dakika veya saniyede onbinlerce parametreye ilişkin sürekli bir veri akışı üretilir.

Ayrıca, kamu hizmetleri hizmetlerinin günün her anında elektrik toplamasına olanak tanıyan "akıllı şebeke" teknolojileri de giderek daha fazla tanıtılıyor.

Verilerin kader tarafından kaydedildiği bu tür programlarda biriken veriler Aşırı Büyük Veri olarak sınıflandırılır.

Ticari ve kamu sektörlerindeki Büyük Veri uygulamalarının sayısı da artıyor; veri koleksiyonları yüzlerce terabayt ve petabayta ulaşıyor.

Modern teknolojiler, insanları ve davranışlarını çeşitli yollarla "incelemeyi" mümkün kılmaktadır. Örneğin, interneti kullanırsak, çevrimiçi mağazalarda veya Walmart gibi büyük mağazalarda kolayca alışveriş yapabiliriz (Wikipedia kullanıldığında, Walmart'ın veri toplamasının 2 petabayttan az olduğu tahmin edilmektedir) veya mühürlü cep telefonlarıyla izimizi kaybederiz. eylemlerimizin yeni bilgilerin birikmesine ne yol açacağı.

Basit telefon görüşmelerinden Facebook gibi sosyal paylaşım siteleri (Wikipedia'ya göre bilgi paylaşımının 30 milyar adede ulaşması bekleniyor b) aracılığıyla bilgi toplanmasına veya YouTube gibi sitelerde video paylaşımına (Youtube onaylıyor) kadar çeşitli iletişim yöntemleri , Cildin 24 yıllık videosunu çekecek olan şey nedir, Wikipedia div), bugün büyük miktarda yeni veri üretiyor.

Benzer şekilde bugün tıbbi teknolojiler Tıbbi bakımı destekleyen büyük miktarda veri (resimler, videolar, gerçek zamanlı izleme) üretir.

Dolayısıyla bu yükümlülüklerin sınıflandırılması şu şekilde yapılabilir:

Büyük veri kümeleri: 1000 megabayttan (1 gigabayt) yüzlerce gigabayta kadar

Büyük veri kümeleri: 1000 gigabayttan (1 terabayt) birçok terabayta kadar

Büyük Veri: birkaç terabayttan yüzlerce terabayta kadar

Son Derece Büyük Veri: 1000 - 10.000 terabayt = 1 - 10 petabayt

Büyük Veri ile bağlantılı yönetim

Büyük Veri ile ilgili üç tür görev vardır:

1. Kaydetme ve yönetim

Yüzlerce terabayt veri var veya bir petabayt, bunları geleneksel yöntemlerle kolayca kaydetmenize ve yönetmenize izin vermiyor ilişkisel veritabanları haraç

2. Yapılandırılmamış bilgi

Büyük Veri verilerinin çoğu yapılandırılmamıştır. Tobto. Metin, video, görsel vb.'yi nasıl düzenleyebilirsiniz?

3. Büyük Veri analizi

Yapılandırılmamış bilgi nasıl analiz edilir? Büyük Veriye dayalı gelişmiş tahmin modellerini nasıl oluşturabilir ve geliştirebiliriz?

Büyük Veriyi kaydetme ve servis etme

Büyük Veri ayrı dosya sistemlerinde depolanır ve düzenlenir.

Genellikle bilgiler düzinelerce (bazen binlerce) sabit sürücüye ve standart bilgisayarlara kaydedilir.

Bu, belirli bir bilginin (hangi bilgisayarda ve/veya diskte) kaydedildiği “haritanın” (haritanın) adıdır.

Dayanıklılık ve güvenilirliği sağlamak için cilt bilgilerinin birkaç kez (örneğin üç kez) kaydedilmesi gerekir.

Yani örneğin, çok çeşitli mağazalardan bireysel işlemleri toplamış olmanız kabul edilebilir. Detaylı bilgi Her işlem farklı sunucu ve sabit disklere kaydedilerek “harita” indekslenir ve ilgili işletmeye ait bilgiler de kaydedilir.

Standart ekipman ve kapalı yardım için yazılım özellikleri dağıtılmış bir dosya sisteminin tamamını işlemek için (örneğin, Hadoop), petabayt ölçeğinde güvenilir veri depolamayı uygulamak hala kolaydır.

Yapılandırılmamış bilgi

Bir dosya sistemi bölümünde toplanan bilgilerin çoğu, metin, resim, fotoğraf ve video gibi yapılandırılmamış verilerden oluşur.

Avantajları ve eksiklikleri var.

Bunun avantajı, büyük verileri kaydetme yeteneğinin, verilerin ne kadarının daha fazla analiz ve karar verme için önemli olduğu konusunda endişelenmeden tüm verileri kaydetmenize olanak sağlamasıdır.

Egzersize bu kadar uyum sağlayanların sayısı çok fazla değil temel bilgiler Bu büyük veri yığınlarının daha fazla işlenmesi gerekmektedir.

Bu işlemlerden bazıları basit olabilse de (örneğin, basit temizleme vb.), diğerleri dosya sisteminin bölümleri üzerinde verimli çalışma için özel olarak geliştirilebilecek daha karmaşık algoritmalar gerektirir.

Bir üst düzey yönetici bir keresinde StatSoft'a, ana faaliyeti azaltmak için verileri nasıl daha iyi kullanacağını bile düşünmeden "bir kuruş dolandırmaya başlamadan önce BT'ye bütün bir çalışma harcadığını ve verileri kurtardığını" söylemişti.

Ayrıca veri yükümlülükleri geometrik ilerlemeyle artabildiğinden, bilgiyi alma ve bu bilgiye dayanarak hareket etme yeteneği asimptotik olarak sınırlara ulaşacaktır.

Modellerin oluşturulması, güncellenmesi ve sürecin otomatikleştirilmesine yönelik yöntem ve prosedürlerin, bu tür sistemlerin işletme için yararlı ve faydalı olmasını sağlamak amacıyla bir dizi veri depolama sistemini ayırmaya karar vermesi önemlidir.

Büyük Veri Analizi

Bu aslında yapılandırılmamış Büyük Veri verilerinin analiziyle ilgili büyük bir sorundur: bunların anlamlı bir şekilde nasıl analiz edileceği. Bu teknoloji hakkında çok daha az şey yazıldı, veri tasarrufu ve Büyük Veri yönetimi teknolojileri hakkında ise daha az şey yazıldı.

Gördüğünüz gibi besin değeri düşüktür.

Harita indirgeme

Yüzlerce terabayt veya petabayt veriyi analiz ederken, verilerin analiz için başka bir yere (örneğin, STATISTICA Kurumsal Analiz Sunucusu).

Verilerin kanallar halinde aynı sunucuya veya sunucuya (paralel işleme için) aktarılması işlemi çok zaman alır ve çok fazla trafik gerektirir.

Uygulamada analitik hesaplamalar fiziksel olarak verilerin kaydedildiği yere yakın bir yerde yapılır.

Harita-Küçültme algoritması bölümsel hesaplamalara yönelik bir modeldir. Prensibi şu anda geçerli: giriş verilerinin ileri işleme (map-croc) için dağıtılmış bir dosya sisteminin çalışma düğümlerine (bireysel düğümler) bölünmesi ve daha sonra bir avuç dolusu verinin zaten ileri işlenmesi (bir havuzda toplanması) vardır (reduce- timsah).

Bu şekilde, örneğin toplamın toplamını hesaplamak için algoritma, dağıtılmış dosya sisteminin her düğümündeki ara toplamları eş zamanlı olarak hesaplayacak ve ardından ara değerleri toplayacaktır.

İnternette, tahmine dayalı analitik de dahil olmak üzere, harita azaltma modeli için nasıl farklı ücretler ödeyebileceğinize dair çok miktarda bilgi vardır.

Basit istatistikler, İş Zekası (BI)

Basit yanıtlar oluşturmak için BI, tutarları, ortalamaları, oranları vb. hesaplamanıza olanak tanıyan kapalı kodlu bir dizi ürün kullanır. Daha fazla yardım için haritayı azaltın.

Böylece sonuçları derlemek için doğru verileri ve diğer basit istatistikleri çıkarmak çok kolaydır.

Tahmin, modelleme yok, kayıp istatistikler

İlk bakışta depolama dosya sisteminde tahmine dayalı modellerin olduğunu düşünebilirsiniz ancak durum hiç de öyle değil. Veri analizinin ileri aşamalarına bakalım.

Veri Hazırlama. Son zamanlarda StatSoft, enerji santralinin işletim sürecine ilişkin kapsamlı kanıtları tanımlayan çok büyük veri kümelerini kullanarak bir dizi harika ve başarılı proje yürütmüştür. Analiz sonuçları, enerji santrali operasyonunun verimliliğinin arttığını ve atık üretiminin azaldığını gösterdi (Elektrik Enerjisi Araştırma Enstitüsü, 2009).

Veri kümelerinin büyük olabilmesine rağmen, içerdikleri bilgilerin boyutunun çok daha küçük olabilmesi önemlidir.

Örneğin, veriler basınç veya hasar biriktirdikçe birçok parametre (gazların ve fırınların sıcaklığı, akışlar, damper konumları vb.) uzun süreler boyunca sabit hale gelir. Aksi takdirde veriler her saniye kaydedilmekte ve aynı bilgilerin tekrarlanması önemlidir.

Bu nedenle, santral operasyonunun verimliliğini etkileyen dinamik değişiklikler hakkında gereksiz bilgiler elde etmek için verilerin modellenmesi ve optimizasyonu için kullanılan verilerin "akıllı" toplanmasının gerçekleştirilmesi gerekmektedir.Bu, video sayısıdır.

Metinlerin sınıflandırılması Ön kaplama haraç Büyük veri setlerinin ne kadar az önemli bilgiyi içerebileceğini bir kez daha gösteriyoruz.

Örneğin StatSoft, yolcuların havayollarından ve hizmetlerinden ne kadar memnun olduklarını gösteren tweetlerden metin madenciliği ile ilgili projelerde yer aldı.

Bugün buna benzer çok sayıda yanıt alınmış olsa da, bunların ifade ettiği ruh halleri hem basit hem de monoton görünüyordu. Bilgilerin çoğu küfür ve kısa bilgilerden oluşuyor ve "lanet deliller" ile ilgili bir öneri var. Ayrıca, bu ruh hallerinin miktarı ve "gücü" belirli durumlarda (örneğin, bagaj israfı, değersiz yiyecekler, kaçırılan uçuşlar) genellikle daha istikrarlıdır.

Bu şekilde, gerçek tweetlerin hızlı (derecelendirme) bir ruh haline indirgenmesi, vikoryst metin madenciliği yöntemleri (örneğin, İSTATİSTİK Metin Madenci), verileri çok daha küçük bir miktara indirir ve bu veriler daha sonra diğer yapılandırılmış verilerle (gerçek bilet satışları veya sık uçan yolcularla ilgili bilgiler) kolayca birleştirilebilir. Analiz, müşterileri gruplara ayırmanıza ve karakteristik alışkanlıklarını belirlemenize olanak tanır.

Dosya sistemi bölümleri arasında bu tür veri toplama işlemini (örneğin, varsayılan ayarlar) gerçekleştirmek için veri analitiğinin kolayca gerçekleştirilmesine olanak tanıyan hiçbir araç mevcut değildir.

Pobudova modelleri

Buradaki zorluk genellikle dosya sistemi genelinde depolanan verilerin doğru modellerini hızlı bir şekilde oluşturmaktır.

Dosya sistemi bölümleri arasında (ek bir platform tarafından desteklenebilen) verilerin büyük ölçekli paralel işlenmesine uygun çeşitli veri madenciliği/tahmin edici analitik algoritmaları için harita azaltmanın uygulanmasına ihtiyaç vardır. İSTATİSTİK StatSoft).

Ancak çok fazla veri topladığınız için kese modelinin daha doğru olduğunu düşünüyor musunuz?

Aslında en güçlü modeller, dosya sistemi bölümlerindeki küçük veri bölümlerine yönelik olacaktır.

Yakın tarihli bir Forrester raporunun belirttiği gibi: "İki artı iki eşittir 3,9 ve bu iyi bir şey" (Hopkins & Evelson, 2011).

İstatistiksel ve matematiksel doğruluk, örneğin 10 öngörü içeren doğrusal regresyon modelinin doğru formasyona dayalı olması gerçeğinde yatmaktadır. Dünya çapında seçim 100.000 önlemle 100 milyon önlemle oluşturulan model kadar doğru olacak.

Büyük veri, büyük veri kümelerinden bilgi toplamak, düzenlemek ve işlemek için gereken geleneksel olmayan stratejiler ve teknolojiler için kullanılan geniş bir terimdir. Hesaplama zorluğundan ve bir bilgisayarı kaydetme yeteneğinden daha ağır basan verilerle çalışma sorunu yeni olmasa da, değer ölçeğinin kalan kaderi önemli ölçüde genişledi.

Bu yazıda harika verileri takip ederek karşılaşabileceğiniz temel kavramları bulacaksınız. Ayrıca şu anda bu ülkede geliştirilmekte olan süreçleri ve teknolojileri de burada görebiliyoruz.

Nedir bu büyük övgüler?

"Büyük verinin" anlamını kesin olarak formüle etmek önemlidir çünkü projeler, satıcılar, uygulayıcılar ve iş profesyonelleri onu çok farklı şekillerde tanımlar. Saygılarından dolayı büyük övgüler şu şekilde ifade edilebilir:

  • Harika veri kümeleri.
  • Büyük veri kümelerini işlemek için kullanılan hesaplama stratejileri ve teknolojileri kategorisi.

Bu bağlamda “büyük veri seti”, geleneksel araçlar kullanılarak veya tek bir bilgisayarda işlenebilecek veya kaydedilebilecek kadar büyük veri seti anlamına gelmektedir. Bu, büyük veri kümelerinin temel ölçeğinin sürekli değiştiği ve saatten saate önemli ölçüde değişebileceği anlamına gelir.

Büyük Haraç Sistemleri

Büyük verilerle çalışmanın temel faydaları diğer veri kümeleriyle aynıdır. Ancak sürecin dış yüzey aşamasında keskinleşen verilerin devasa boyutu, işlemenin akışkanlığı ve özellikleri, stokların geliştirilmesinde ciddi yeni sorunlar doğuruyor. Çoğu büyük veri sisteminin yöntemi, farklı verilerin büyük verileriyle olan bağlantıları anlamaktır; bu, diğer birincil yöntemlerin yardımıyla imkansız olacaktır.

2001 yılında Gartner'dan Doug Laney, büyük verilerin işlenmesini diğer veri türlerinin işlenmesinden ayıran özellikleri tanımlamak için "Büyük Verinin Üç Karşıtı"nı sundu:

  1. Hacim (takıntılar verilmiştir).
  2. Hız (verilerin biriktirilme ve işlenme hızı).
  3. Çeşitlilik (toplanan veri türlerinin çeşitliliği).

Obsyag haraçları

Vinyatkov'un derlenen bilgi ölçeği, büyük veri sisteminin önemine katkıda bulunuyor. Bu veri setleri, geleneksel setlerden çok daha büyük olabilir ve bu, işleme ve muhafazanın cilt aşamasında daha fazla özen gerektirecektir.

Parçalar tek bir bilgisayarın yeteneklerinden daha ağır bastığında, genellikle bilgisayar gruplarından gelen kaynakların havuzda toplanması, paylaşılması ve koordine edilmesiyle ilgili bir sorun ortaya çıkar. Küme kontrolü ve verilen büyük parçaları parçalayan algoritmalar zihnimizde daha önemli hale geliyor.

Birikimin ve atıkların likiditesi

Diğer veri sistemlerinden gelen büyük verilerden temel olarak farklı olan bir diğer özellik, bilginin sistem tarafından taşındığı akışkanlıktır. Veriler çoğunlukla sistemden çok sayıda parçayla gelir ve sistemin üretim tesisini güncellemek için mümkün olan en kısa sürede işlenebilmektedir.

Bu vurgu mittevy üzerindedir zilin çağrısı Pek çok faal uygulayıcıyı toplu odaklı bir yaklaşım benimsemeye ve gerçek zamanlı akış sistemine öncelik vermeye teşvik ettik. Yeni bilgi akışına ayak uydurmak ve değerli verileri en alakalı olduğu erken aşamada çıkarmak için veriler sürekli olarak eklenir, derlenir ve analiz edilir. Veri taşıyıcı arızalarına karşı koruma sağlamak için yüksek kullanılabilirliğe sahip bileşenlere sahip güvenilir sistemlere kimin ihtiyacı var?

Toplanan çeşitli veri türleri

Büyük verilerin geniş bir yelpazedeki tortular ve sulu kaplarıyla ilgili benzersiz sorunları yoktur.

Veriler, uygulama günlükleri ve sunucuları gibi dahili sistemlerden, sosyal medya kanallarından ve diğer harici API'lerden, fiziksel cihazların sensörlerinden ve diğer cihazlardan gelebilir. Büyük veri sistemlerinin yöntemi, potansiyel olarak değerli verilerin, tüm bilgilerin tek bir sistemde birleştirilmesinden bağımsız olarak işlenmesidir.

Burun formatları ve türleri de önemli ölçüde farklılık gösterebilir. Medya dosyaları (resimler, video ve ses), metin dosyaları, yapılandırılmış günlükler vb. ile birleştirilir. Çoğu geleneksel veri işleme sistemi, verileri önceden etiketlenmiş, biçimlendirilmiş ve organize edilmiş bir konveyörde işlemek üzere tasarlanmıştır veya büyük sistemler onları veri işlemeye davet eder. haraç kabul edin ve kaydedin, uygulayarak kaydedin hafta sonu kampı. İdeal olarak, işlenmemiş verilerdeki herhangi bir dönüşüm veya değişiklik, işlem sırasında bellek tarafından oluşturulacaktır.

Diğer özellikler

Yıllar boyunca liderler ve kuruluşlar, bu yeniliklerin büyük verilerin özelliklerinden ziyade sorunları tanımlamasını isteyerek "üç V"nin genişletilmesini desteklediler.

  • Doğruluk: Verilerin değişkenliği ve işlemenin karmaşıklığı, verilerin kalitesinin (ve dolayısıyla ortaya çıkan analizin kalitesinin) değerlendirilmesinde sorunlara yol açabilir.
  • Değişkenlik: Veri değişiklikleri verilerde geniş değişikliklere yol açar. Düşük parlaklıktaki verileri tanımlamak, işlemek veya filtrelemek, verilerin parlaklığını artırabilecek ek kaynaklar gerektirebilir.
  • Değer: Büyük verinin sonu değerdir. Diğer sistem ve süreçler daha da karmaşıktır, bu da verilerin hesaplanmasını ve gerçek değerlerin türetilmesini zorlaştırır.

Büyük haraçların yaşam döngüsü

Peki gerçekten harika haraçları nasıl toplarız? Uygulamaya yönelik bir dizi farklı yaklaşımın yanı sıra stratejiler ve yazılım destekli çözümler de vardır.

  • Verilerin sisteme girilmesi
  • Çobandan veri kaydediliyor
  • Hesaplama ve veri analizi
  • Sonuçların görselleştirilmesi

Öncelikle iş süreçlerinin bu kategorilerine bir göz atalım, büyük verileri işlemek için birçok yolu olan önemli bir strateji olan küme bilişimden bahsedelim. Hesaplamalı kümenin ayarlanması, yaşam döngüsünün cilt aşamasına uygulanan teknolojinin temelidir.

Kayıt kümeleri

Büyük verinin doğası gereği bilgisayarlar veri işlemeye uygun değildir. Büyük verilerin tasarruf ve bilgi işlem ihtiyaçlarını karşılayabilecekleri için hangi kümeler daha uygundur?

Büyük verileri kümelemeye yönelik yazılım, birçok küçük makinenin kaynaklarını kullanacak ve böylece bir dizi avantaj sağlayacaktır:

  • Kaynak Paylaşımı: Büyük veri kümelerinin işlenmesi, çok fazla işlemci ve bellek kaynağının yanı sıra veri depolamak için çok fazla kullanılabilir alan gerektirir.
  • Yüksek kullanılabilirlik: kümeler, veri erişimini ve işlenmesini etkileyen donanım veya yazılım arızaları olmadan, değişen düzeylerde görünürlük ve kullanılabilirlik sağlayabilir. Bu özellikle gerçek zamanlı analizler için önemlidir.
  • Ölçeklenebilirlik: kümeler yatay ölçeklendirmeyi teşvik eder (kümeye yeni makineler eklenmesi).

Bir kümede çalışmak için, küme üyeliğini yönetmek, kaynakların bir alt bölümünü koordine etmek ve bitişik düğümlerle çalışmayı planlamak için gerekli özellikler vardır. Kümelere üyelik ve kaynakların dağıtımı, Hadoop YARN (Yet Another Resource Negotiator) veya Apache Mesos gibi ek programlar aracılığıyla elde edilebilir.

Toplu bilgi işlem kümesi genellikle verilerin karşılıklı olarak işlenmesi için bir temel görevi görür. güvenlik yazılımı. Bilgi işlem kümesindeki makineler aynı zamanda dağıtılmış bir tasarruf sisteminin kontrollerine de bağlıdır.

Haraçların alınması

Haraç kabulü, elde edilmemiş haraçların sisteme eklenmesi işlemidir. Bu işlemin karmaşıklığı büyük ölçüde verinin formatına ve verinin işlenmeye ne ölçüde uygun olduğuna bağlıdır.

Ek özel araçlar kullanılarak sisteme büyük miktarda veri eklenebilir. Apache Sqoop gibi teknolojiler, ilişkisel veritabanlarından ham verileri alıp büyük veri sistemine besleyebilir. Uygulama günlüklerinin ve sunucularının toplanması ve içe aktarılması için tasarlanmış Apache Flume ve Apache Chukwa projelerini de kullanabilirsiniz. Apache Kafka gibi aracılar, çeşitli veri oluşturucular ile büyük veri sistemi arasında bir arayüz olarak kullanılabilir. Gobblin gibi çerçeveler, konveyörün sonundaki tüm aletlerin çalışmasını birleştirebilir ve optimize edebilir.

Veriler alınır alınmaz analiz, sıralama ve işaretleme yapılmalıdır. Bu işleme bazen dönüşüm, dönüşüm ve dönüşüm anlamına gelen ETL (çıkarma, dönüştürme, yükleme) adı verilir. Bu terim her ne kadar eski veri depolama süreçleriyle ilgili olsa da büyük veri sistemlerini de ilgilendirmektedir. Tipik işlemler arasında giriş verilerinin biçimlendirme, kategorize etme ve etiketleme için değiştirilmesi, verilerin filtrelenmesi ve uygunluk açısından kontrol edilmesi yer alır.

İdeal olarak, bulunan veriler minimum düzeyde biçimlendirmeye tabi tutulur.

Haraçların korunması

Verileri aldıktan sonra yapıyı içeren bileşenlere geçin.

Edinilmemiş verilerin farklı dosya sistemi bölümlerine kaydedildiğinden emin olun. Apache Hadoop'taki HDFS gibi çözümler, bir kümedeki birden fazla düğüme büyük miktarda veri kaydetmenize olanak tanır. Bu sistem, bilgi işlem kaynaklarına verilere erişim sağlayacak ve bellek işlemleri ve bileşen arıza tespiti için verileri kümenin RAM'ına aktarabilecek. HDFS yerine Ceph ve GlusterFS dahil diğer dosya sistemi dağıtımlarını kullanabilirsiniz.

Daha yapılandırılmış erişim için veriler diğer sistemlere de aktarılabilir. Bölümlenmiş veritabanları, özellikle de NoSQL veritabanları, parçaların heterojen verileri işleyebilmesi nedeniyle bu role çok uygundur. Ruhsuz uyumak farklı şekiller veritabanlarının bölümleri, verileri nasıl düzenlemek ve göndermek istediğinize bağlı olarak depolamayı seçin.

Hesaplama ve veri analizi

Yalnızca veriler mevcut olduğunda sistem formu yazdırabilir. Hesaplama sistemi belki de sistemin en büyük kısmıdır ve buradaki olası yaklaşımlar bilgi türüne göre farklılaştırılabilir. Veriler genellikle tek bir araçla veya farklı veri türlerini işlemek için bir dizi araçla tekrar tekrar işlenir.

Toplu işleme, büyük veri kümeleri için hesaplama yöntemlerinden biridir. Bu süreç, verilerin daha küçük parçalara bölünmesini, deri kısmının farklı bir makinede işlenmesinin planlanmasını, ara sonuçlara göre verilerin yeniden düzenlenmesini ve ardından kalan sonucun hesaplanıp toplanmasını içerir. Bu strateji Apache Hadoop'taki MapReduce'a dayanmaktadır. Toplu işleme, kapsamlı hesaplama gerektiren çok büyük veri kümeleriyle çalışırken en kullanışlıdır.

Diğer işler gerçek zamanlı olarak işlenmeyi gerektirir. Bu durumda bilgilerin güvenli bir şekilde işlenip hazırlanması gerekir ve sistem yeni bilgi ihtiyacına anında cevap verebilmektedir. Gerçek zamanlı işlemeyi uygulamanın yollarından biri, çeşitli öğelerden oluşan sürekli veri akışını işlemektir. Gerçek zamanlı işlemcilerin bir diğer benzersiz özelliği de küme belleğindeki verilerin hesaplanmasıdır, bu da diske yazma ihtiyacını ortadan kaldırır.

Apache Storm, Apache Flink ve Apache Spark, gerçek zamanlı işlemeyi uygulamanın farklı yollarını gösteriyor. Bu ileri teknolojiler, belirli bir cilt sorununa en iyi yaklaşımı seçmenizi sağlar. Gerçek zamanlı işleme, değişen veya sisteme hızlı bir şekilde iletilen küçük veri parçalarını analiz etmek için en uygun yöntemdir.

Tüm programlar çerçevelerdir. Ancak büyük veri sistemindeki verileri hesaplamanın ve analiz etmenin birçok başka yolu vardır. Bu araçlar genellikle bilgi çerçevelerine bağlanır ve daha düşük seviyelerle etkileşim için ek arayüzler sağlar. Örneğin Apache Hive, Hadoop için bir veri ambarı arayüzü sağlar, Apache Pig bir sorgu arayüzü sağlar ve SQL verileriyle etkileşimler Apache Drill, Apache Impala, Apache Spark SQL ve Presto tarafından sağlanır. Apache SystemML, Apache Mahout ve MLlib'i kullanmayı Apache Spark'tan öğrendim. Veri ekosistemi tarafından geniş çapta desteklenen doğrudan analitik programlama için R ve Python'u kullanın.

Sonuçların görselleştirilmesi

Genellikle verilerdeki eğilimleri ve değişiklikleri tanımak giderek daha önemli hale geliyor. Veri görselleştirme, eğilimleri belirlemenin ve çok sayıda veri noktasını organize etmenin en güçlü yollarından biridir.

Gerçek zamanlı işleme, sunucu programı ölçümlerini görselleştirmek için kullanılır. Veriler sık ​​sık değişiyor ve rakamlar arasındaki büyük farklılıklar, sistemlerin ve kuruluşların ülkeye önemli ölçüde akın ettiğini gösteriyor. Prometheus gibi projeler, veri akışlarını ve zaman serilerini verimli bir şekilde işleyebilir ve bu bilgileri görselleştirebilir.

Verileri görselleştirmenin popüler yollarından biri, daha önce ELK yığını olarak bilinen Elastik yığındır. Logstash veri toplama için, Elasticsearch veri indeksleme için ve Kibana görselleştirme için kullanılır. Elastic yığını büyük miktarda veriyi işleyebilir, hesaplama sonuçlarını görselleştirebilir ve ham ölçümlerle etkileşime girebilir. Benzer bir yığın, görselleştirme amacıyla Kibana çatalını Banana adı altında indekslemek için Apache Solr kullanılarak oluşturulabilir. Bu yığına İpek denir.

Veri galerisinde etkileşimli çalışmaya yönelik bir diğer görselleştirme teknolojisi de belgelerdir. Bu tür projeler, kapsamlı veri madenciliği ve dosyalama için uygun bir formatta verilerin etkileşimli olarak araştırılmasına ve görselleştirilmesine olanak tanır. Bu arayüz için popüler uygulamalar Jupyter Notebook ve Apache Zeppelin'dir.

Büyük Övgüler Sözlüğü

  • Mükemmel veri, uygun şekilde özetlenebilen veri kümeleri için kullanılan geniş bir terimdir orijinal bilgisayarlar ve araçlar hizmetleri, akıcılıkları ve çok yönlülükleri sayesinde. Bu terim aynı zamanda bu tür verilerle çalışma teknolojisine ve stratejisine de bağlıdır.
  • Toplu işleme, büyük kümelerdeki verilerin işlenmesini içeren bir hesaplama stratejisidir. Bu yöntemin terminal olmayan verilerle çalışmak için ideal olduğunu bilin.
  • Kümelenmiş bilgi işlem, çeşitli makinelerin kaynaklarını bir havuzda birleştirme ve görev tamamlanana kadar çeşitli yeteneklerini yönetme uygulamasıdır. Bu durumda bitişik düğümler arasındaki bağlantıları oluşturan bir küme oluşturmak gerekir.
  • Veri gölü, görünüşte yetim kalan bir kamptan toplanan verilerin büyük bir birikimidir. Bu terim sıklıkla, sık sık değişen, yapılandırılmamış büyük verileri ifade etmek için kullanılır.
  • Veri toplama, büyük veri kümelerindeki kalıpları aramaya yönelik çeşitli uygulamalar için kullanılan geniş bir terimdir. Bu, veri yığınını daha akıllı ve tutarlı bir bilgi kümesi halinde organize etme girişimidir.
  • Veri ambarı, analiz ve bilgi için büyük, iyi düzenlenmiş bir ambardır. Ayrıca veri gölü, diğer cihazlarla entegre edilmiş, formatlanmış ve iyi düzenlenmiş verilerden oluşur. Veri koleksiyonları genellikle büyük veriler olarak düşünülür, ancak çoğunlukla birincil veri işleme sistemlerinin bileşenleri olarak düşünülür.
  • ETL (çıkarma, dönüştürme ve yükleme) – verilerin dönüştürülmesi, dönüştürülmesi ve dönüştürülmesi. Bu, vikoristan'dan önce toplanmayan verilerin çıkarılması ve hazırlanması sürecidir. Veri toplamayla bağlantılı olarak bu sürecin özellikleri, büyük veri sistemlerinin boru hatlarında da görünür.
  • Hadoop – bu Apache projesi açık çıkış kodu büyük saygılar için. HDFS adı verilen dağıtılmış bir dosya sistemi ve YARN adı verilen bir küme ve kaynak planlayıcıdan oluşur. Toplu işleme yetenekleri MapReduce hesaplama motoru tarafından sağlanır. MapReduce ile eşzamanlı olarak mevcut Hadoop boğazlarında diğer bilgi işlem ve analitik sistemleri çalıştırabilirsiniz.
  • Bellek numaralandırma, çalışan veri kümelerinin hareketini küme belleğine aktaran bir stratejidir. Ara hesaplamalar diske yazılmaz, hafızaya kaydedilir. Bu, sistemlere, G/Ç'ye bağlı sistemlere eşit hızda büyük bir avantaj sağlar.
  • Makine öğrenimi, kendilerine iletilen verilere dayalı olarak başlatılabilen, ayarlanabilen ve geliştirilebilen sistemlerin tasarlanmasının araştırılması ve uygulanmasıdır. Bunun nedeni tahmine dayalı ve istatistiksel algoritmaların uygulanmasıdır.
  • Harita azaltma (MapReduce ve Hadoop ile karıştırılmamalıdır), hesaplamalı bir küme planlamaya yönelik bir yöntemdir. Süreç, düğümler arasındaki alt bölümleri ve ara sonuçların çıkarılmasını, karıştırılmasını ve ardından dış görünüm seti için tek bir değerin geri yüklenmesini içerir.
  • NoSQL, geleneksel ilişkisel modele bölünmüş veritabanları anlamına gelen geniş bir terimdir. NoSQL veritabanları esneklikleri ve bölümlenmiş mimarileri nedeniyle büyük veriler için çok uygundur.
  • Akış işleme, sistem tarafından taşınan çeşitli veri öğelerinin hesaplanması uygulamasıdır. Bu, verileri gerçek zamanlı olarak analiz etmenize olanak tanır ve çeşitli yüksek hızlı ölçümlerden vadeli işlemleri işlemek için uygundur.
Etiketler: ,

Aynı zamanda Alman Gref'te (Oschadbank'ın başkanı) “Büyük Veri” terimiyle karşılaştım. Bununla birlikte, sorunlar üzerinde hemen aktif olarak çalışırlar ve bu da her müşteriyle çalışma saatlerini hızlandırmalarına yardımcı olur.

Aniden müşterinin çevrimiçi mağazasında bu konseptlerle karşılaştım; üzerinde çalıştılar ve ürün çeşitliliğini birkaç binden on binlerce ürüne çıkardılar.

Üçüncü kez, Yandex'in büyük bir veri analistine ihtiyaç duyacağını fark ederseniz. Daha sonra bu konuyu daha derinlemesine incelemeye ve TOP yöneticilerinin ve İnternet alanının kafasında dönen bu terimin ne olduğunu açıklamak için hemen bir makale yazmaya karar verdim.

Neye benziyor?

Neyse yazıma bu terimin ne olduğunu anlatarak başlayacağım. Bu arada, seni suçlamayacağım.

Ancak bizden insanlara ne kadar zeki olduğumu göstermemiz istenmedi, konunun gerçekten karmaşık olması ve dikkatli bir açıklama gerektirmesi nedeniyle.

Örneğin, Vikipedi'deki büyük veriyi okuyabilir, hiçbir şey anlayamaz ve daha sonra bu makaleye geri dönüp iş açısından önemini anlayabilirsiniz. Açıklamayı bitirelim ve ardından iş uygulamalarına geçelim.

Büyük veri harika şeyler demektir. Harika, değil mi? Aslında İngilizce'de bu "büyük haraç" olarak çevriliyor. Ale'nin aptallar için tasarlandığı söylenebilir.

Büyük veri teknolojisi- Bu, en temel yollarla işlenmesi önemli olan yeni bilgileri yakalamak için büyük miktarda veriyi işlemeye yönelik bir yaklaşım/yöntemdir.

Veriler hem birleştirilebilir (yapılandırılmış) hem de ayrıştırılabilir (yapılandırılmamış).

Vinik teriminin kendisi yakın zamanda ortaya çıktı. 2008 yılında bilimsel bir dergide bu yaklaşımın geometrik ilerlemeyle artan büyük miktarda bilgiyle çalışmak için gerekli olduğu aktarıldı.

Örneğin internette kaydedilmesi ve elbette işlenmesi gereken bilgi miktarı %40 oranında artıyor. Bir kez daha: +%40 Yeni bilgiler internette mümkün olan en kısa sürede görünür.

Bölünmüş belgeler netleştikten ve bunları işleme yöntemleri netleştikten sonra (elektronik formata aktarma, tek bir klasöre koyma, numaralandırma), diğer "medyada" ve diğer ciltlerde sunulan bilgilerle nasıl çalışılacağı:

  • İnternet belgeleri;
  • Bloglar ve sosyal ağlar;
  • Ses/video cihazı;
  • Vimirival cihazları.

Є bilgileri ve verileri büyük verilere taşımanıza olanak tanıyan özellikler. Ancak verilerin tamamı analiz için kullanılamaz. Bu özellikler hala büyük verinin temel kavramını içermektedir. Tüm koku üç V'ye sığıyor.

  1. Hakkımızda(İngilizce cilt). Veriler, analizi kolaylaştıran fiziksel belgenin boyutuna göre belirlenir;
  2. Şvidkistost(İngilizce versiyonu: Hız). Veriler kendi başlarına gelişmezler, giderek artarlar, bu nedenle sonuçların elde edilmesi için aynı tür işlemlere ihtiyaç duyulur;
  3. Çeşitlilik(İngiliz çeşidi). Veriler aynı formatta olabilir. Bunlar bölümlere ayrılabilir, yapılandırılabilir veya yapılandırılabilir.

Bununla birlikte, zaman zaman VVV dördüncü V'yi (doğruluk - verilerin güvenilirliği/inandırıcılığı) ekler ve beşinci V'yi ekler (bazı seçeneklerde bu uygulanabilirlik, diğerlerinde ise değerdir).

Burada bugün olup biten verileri karakterize eden 7V’den bahsediyorum. Bana göre Ale seriden değil (P'nin periyodik olarak eklendiği, ancak 4 koçanın anlaşılması için yeterli olmasına rağmen).

ZATEN 29.000'DEN FAZLASIYIZ.

Kimin ihtiyacı var?

Daha mantıklı, bilgiyi nasıl analiz edebilirsiniz (veriler yüzlerce ve binlerce terabayt olduğuna göre)?

Öyle değil. Eksen bilgidir. Bugün ne buldular? Pazarlama ve iş dünyasında büyük veriyle ilgili durum nedir?

  1. Birincil veri tabanları muazzam miktarda bilgiyi depolayamaz ve işleyemez (analitikten bahsetmiyorum, sadece kaydedip işleyebilir).
    Büyük buluşma tüm hızıyla sürüyor. Bilgileri büyük bir özenle başarıyla kaydeder ve korur;
  2. Farklı kaynaklardan (video, resim, ses ve ses) gelen videoyu yapılandırır. metin belgeleri), tek, mantıklı ve nazik bir görünümde;
  3. Analitiklerin oluşturulması ve yapılandırılmış ve toplanan bilgilere dayanarak doğru tahminlerin oluşturulması.

Karmaşık. Basitçe söylemek gerekirse, eğer çok fazla bilgiyi (kendiniz, şirketiniz, rakipleriniz, hobiniz hakkında) özümserseniz iyi sonuçlar alabileceğinizi anlayan bir pazarlamacıysanız:

  • Şirketinizin ve işletmenizin rakamlarla anlaşılmasının ötesinde;
  • Rakiplerinizi inceleyin. Ve sonra, kendi siyahımla, onların üzerindeki önem sırasına doğru koşmama izin verin;
  • Müşterileriniz hakkında yeni bilgiler öğrenin.

Büyük veri teknolojisi anında sonuçlar üretse de onunla birlikte her şey silinip gidiyor. Satışların artması ve giderlerin değişmesini önlemek için bunu şirketlerinin hakkına bağlamaya çalışıyorlar. Ve özellikle o zaman:

  1. Müşteri bilgisindeki artış için ülke çapında artan satışlar ve ek satışlar;
  2. Popüler ürünleri arama ve insanların bunları satın alma nedenleri (ve bunun iyi bir nedeni var);
  3. Ürün ve hizmetin iyileştirilmesi;
  4. Geliştirilmiş hizmet seviyesi;
  5. Artan sadakat ve müşteri odaklılık;
  6. Şahraizmin ilerlemesi (bankacılık sektörüyle daha alakalı);
  7. Zaivich vitratın azaltılması.

Tüm cihazlar için geçerli olan en kapsamlı örnek, öncelikle kullanıcıları hakkında (telefon, yıldönümü kartı, bilgisayar) veri toplayan Apple şirketidir.

Ekosistemin varlığı sayesinde şirketin kendisi de vurguncularını biliyor ve bunu kar çalmak için kullanıyor.

Bu sayfadaki bu ve diğer yazıları bunun dışında herhangi bir yazıda okuyabilirsiniz.

Böyle bir popo

Size başka bir projeden bahsedeceğim. Daha doğrusu yakın gelecekte büyük veri çözümleri üzerinde çalışacak kişiler hakkında.

Bu Elon Musk ve şirketi Tesla. Asıl amacınız arabaları otonom hale getirmek, böylece arabanın arkasına oturup Moskova'dan Vladivostok'a kadar otopilotu kullanmak ve... uykuya dalmak, böylece arabayı hiç çalıştırmanıza gerek kalmaz ve hatta her şeyi kendiniz inşa edersiniz. .

Bir fantezi gibi mi görünüyor? HAYIR! Elon, düzinelerce uydunun yardımıyla arabaların nasıl yönetileceği konusunda Google'dan çok daha akıllıca bir iş çıkardı. Başka bir yol izleyelim:

  1. Satılan her araba, tüm bilgileri toplayan bir bilgisayarla donatılmıştır.
    Her şey, her şeyin yandığı anlamına gelir. Araba kullanmak, sürüş tarzı, yakındaki yollar, diğer arabaların azalması hakkında. Bu tür verilerin depolanması yılda 20-30 GB tutarındadır;
  2. Ayrıca bu bilgiler uydu iletişimi yoluyla bu verileri işleyen merkezi bilgisayara iletilir;
  3. Toplandığı şekliyle büyük verilere dayanmaktadır Danimarka Bilgisayarı Sürücüsüz araba modeli olacak

Aslına bakılırsa, Google çok daha iyi durumdayken ve arabaları kazalarda saatler harcarken, Musk büyük verilerle çalışma konusunda çok daha iyi durumda ve test modelleri bile daha da kötü sonuçlar gösteriyor.

Ale... Her şey ekonomiyle ilgili. Kâr ve kâr konusunda hepimiz neyiz? Belirleyebileceğiniz şeylerin çoğu, kazanç ve parayla hiçbir şekilde ilgili değildir.

Büyük verilere dayanan Google istatistikleri önemli bir artış gösteriyor.

Doktorlar, insan sayısının arttığı herhangi bir bölgede hastalık salgınının başladığını duyurmadan önce ses ısırıkları birinin hastalığının kutlanmasıyla ilgili.

Böylece, verilerin ve bunların analizlerinin doğru yorumlanması, tahminleri formüle edebilir ve salgının başlangıcını (ve tabii ki yok oluşunu) resmi kurumların saflarının ve bunların faaliyetlerinin daha altına daha geniş bir şekilde aktarabilir.

Rusya yakınlarındaki Zastosuvannya

Ancak Rusya her zaman olduğu gibi biraz huysuz. Dolayısıyla Rusya'da büyük verinin öneminin 5 yıldan fazla olmadığı ortaya çıktı (birincil şirketlerden bahsediyorum).

Dünyanın en hızlı büyüyen pazarlarından biri olan (uyuşturucu ve sinirsel sigara kullanımından kaçınma) pazarlardan biri olan ve büyük veri toplama ve analiz etmeye yönelik yazılım pazarının %32 oranında büyümesi sizi şaşırtmasın.

Rusya'daki büyük veri pazarını karakterize etmek için aklıma eski bir şaka geliyor. 18'e kadar büyük randevu ve yak seks. Bu konuda söyleyebileceğimiz tek şey, çok fazla konuşma ve çok az gerçek eylem olduğu ve herkesin bunu kendilerinin yapmadığını bilmesinin utanç verici olduğu. Ve dürüst olmak gerekirse, çok fazla zenginlik var ama çok az gerçek eylem var.

Bununla birlikte, son şirket Gartner, 2015 yılında, bugünün artık büyüyen bir trend olmadığını (örneğin, parça zekası), bunun yerine ileri teknolojilerin analizi ve geliştirilmesi için bağımsız araçlar olduğunu duyurdu.

Rusya'da büyük verinin en aktif olduğu alanlar bankalar/sigorta (Oschadbank başkanıyla boşuna bir makale yayınlamadım), telekomünikasyon sektörü, perakende, güvenlik ve devlet sektörü.

Şimdilik ekonominin büyük veri algoritmaları gibi birkaç sektörü hakkında daha detaylı konuşalım.

1. Bankalar

Bankaların bizimle ve işlerimiz hakkında topladıkları bilgilerle bitirelim. Örneğin, büyük verilere aktif olarak yatırım yapan ilk 5 Rus bankasını aldım:

  1. Oschadbank;
  2. Gazprombank;
  3. VTB 24;
  4. Alfa Bankası;
  5. Tinkoff Bankası.

Özellikle Alfa Bank'ın Rus liderleri arasında memnuniyetle karşılanıyor. En azından, her türden resmi ortak olan bankanın, şirketine yeni pazarlama araçları sunma ihtiyacını anladığının kabul edilmesi memnuniyetle karşılanacaktır.

Ale vikoristannya ve dalgo vprovadzhenya büyük verilerini uyguluyor, size standart dışı görünüm ve patronumun detayları için hak ettiğim kavanozda göstermek istiyorum.

Tinkoff Bank'tan bahsediyorum. Ana görevleri, büyük miktarda veriyi büyük bir müşteri tabanı aracılığıyla gerçek zamanlı olarak analiz etmek için bir sistem geliştirmekti.

Sonuçlar: Dahili süreçlerin saati en az 10 kat, aktif olanlar için ise 100 kattan fazla hızlanır.

Biraz savurganlık. Oleg Tinkov'un standart dışı değişimleri ve değişimleri hakkında neden konuşmaya başladığımı biliyor musunuz? Bana göre, Rusya'da binlerce kişi gibi orta halli bir iş adamından en ünlü ve en saygın girişimcilerden birine dönüşmeme kendileri yardımcı oldular. Onay belgesine ve bu beklenmedik videoya bir göz atın:

2. Yıkılmazlık

Ruhomost olmayanlarla her şey çok daha karmaşıktır. Ve bu, acil durum işleri bağlamında hayatınızı anlamanız için size vermek istediğim örneğin aynısıdır. Yasal ayrıntılar:

  1. Metinsel belgelere büyük bağlılık;
  2. Açık dzherela (dünya değişiklikleri hakkında veri ileten özel arkadaşlar);
  3. İnternetteki kontrolsüz bilgi yükünün büyük olması;
  4. Dzherelakh ve verilerde kalıcı değişiklikler.

Ve buna dayanarak, örneğin bir Ural köyünün yakınında bir arsanın değerini hazırlamak ve değerlendirmek gerekiyor. Bu bir profesyonelin sezonu.

Rusya Tahminciler Birliği ve ROSECO, yazılım yardımıyla kendi büyük veri analizlerini, 30 saatten fazla verimsiz çalışma maliyetiyle geliştirdiler. Süreyi 30 dakikaya ayarlayın. Maliyet çok büyük.

Araçlar ve yaratımlar

Elbette basit sabit disklerde büyük miktarda bilgi depolanamaz ve işlenemez.

Verileri yapılandıran ve analiz eden güvenlik programı, entelektüel otoriteye ve kapsamlı yazarlık gelişimine yol açar. Ancak tüm bu güzelliğin yaratıldığı araçlar şunlardır:

  • Hadoop ve MapReduce;
  • NoSQL Veritabanı;
  • Veri Keşfi sınıfına yönelik araçlar.

Doğrusunu söylemek gerekirse, fizik ve matematik enstitülerindeki insanlar bu konuşmalara aşina olduğu için, hangi kokuların birbirinden farklı olduğunu size net bir şekilde anlatamam.

Açıklayamadığım şeyden mi bahsediyordum? Soyguncuların her zaman herhangi bir bankaya nasıl geldiğini ve dartlarla bağlantılı çok sayıda her türden fahişeyi nasıl topladığını hatırlıyor musunuz? Aynı ve iyi randevular için. Mesela aks modeli şu şekilde narazi pazarın liderlerinden biri.

Büyük tarih aracı

Maksimum konfigürasyondaki fiyat raf başına 27 milyon ruble. Bu tabii ki lüks bir versiyon. İşletmeniz için büyük veri oluşturmaya çalışmanızı istiyorum.

Kısaca müstehcenlik hakkında

Küçük veya orta ölçekli bir işletme olarak sizin için yakın gelecekte robotun geleceğinin ne olacağını sorabilir misiniz?

Bu noktada bir kişiden alıntı yaparak hatırlatacağım: “Yakın gelecekte müşteriler, şirketlerden davranışlarını daha iyi anlamalarını talep edecek ve reklamları kendilerine en uygun olacak.”

Gerçeği gözümüzde görelim. Küçük bir işletmede büyük veriyi dağıtmak için, yazılımın geliştirilmesi ve dağıtımı ile büyük veri analistleri ve sistem yöneticileri gibi muhasebecilerin yönetimi için büyük bir bütçeden fazlasına ihtiyacınız yoktur.

İşte bu yüzden işlemek için bu tür haraçlara sahip olabileceğiniz şeylerden bahsediyorum.

TAMAM. Küçük işletmeler için konu durağan olmayabilir. Bu, okuduğunuz her şeyi unutmanız gerektiği anlamına gelmez. Verilerinizi ve hem yabancı hem de Rus şirketlerinin veri analitiği sonuçlarını girmeniz yeterli.

Örneğin, Target'ın büyük veri analitiğini kullanan çeşitli analizleri, hamileliğin bir sonraki üç aylık döneminden (hamileliğin 1. ila 12. dönemi arası) önce hamile kadınların aktif olarak tatlandırılmamış ürünler satın aldığını ortaya çıkardı.

Dii terimiyle tatlandırılmamış kedilere kuponlar ve indirimler ekleme pisliğini size yaşatacağız.

Mesela bu gerçekten küçük kafeye ne dersiniz? Evet, çok basit. Vikorist sadakat programı. Ve bir saat içinde, biriken bilgilerle, müşterilerinize ihtiyaçlarına uygun ürünleri ulaştırmakla kalmayacak, aynı zamanda sadece birkaç tıklamayla en satılmayan ve yüksek marjlı ürünleri de oluşturabileceksiniz.

Arkana bak. Küçük bir işletmenin sonuçlarını yönetmenin kolay olması pek mümkün değildir, ancak diğer şirketlerin sonuçlarını elde etmek zorunludur.