Research

Thị trường điện thoại thông minh mùa cuối năm vẫn “sống tốt” nhờ vào Trung Quốc và Ấn Độ

Kể từ khi ra mắt những chiếc Samsung s10 series của ông lớn đến đến từ Hàn Quốc gây nhiều “sóng gió” trên thị trường smartphone. Trong khi đó với sự tụt hạng của Huawei sau khi “nghỉ chơi” với Google cũng gây ra nhiều biến động và xáo trộn. Tuy nhiên, đi cùng với đó là sự vươn lên của nhiều cái tên mới, những “chú ngựa ô” sẵn sàng đổi mới cuộc chơi, như RealMe chẳng hạn. 

Những tháng đầu năm 2019, sự kiện nổi bật nhất của làng di động chủ yếu tập trung tại MWC 2019 vào tháng 2. Tại đây, các nhà sản xuất smartphone hàng đầu thế giới thi nhau trình làng những thiết bị mới, độc lạ, mãn nhãn khiến người hâm mộ không khỏi trầm trồ. 

Mới đây, hãng phân tích nổi tiếng Canalys và Strategy Analytics đã công bố báo cáo về tình hình thị trường điện thoại thông minh toàn cầu, bao gồm phân tích đầy đủ từ Counterpoint Research. Cụ thể thị trường smartphone nói chung vẫn không thay đổi khi có 380 triệu máy được bán ra trong quý 3 năm 2019, tăng nhẹ so với 379,8 triệu chiếc cùng kỳ năm ngoái. Huawei dù là bá vương ở Trung Quốc nhưng do mất bị cô lập trên thế giới sau cuộc chiến tranh thương mại Google, bị cô lập tại châu Âu, Mỹ la tinh, Trung Đông.

Chứng kiến sự sụt giảm doanh số trên trường quốc tế của Huawei, các đối thủ như Samsung, Realmi… tận dụng lợi thế, lần lượt bứt tốc. 

Theo Shobhit Srivastava, nhà nghiên cứu tại CP – Counterpoint, chia sẻ rằng, nhà bán lẻ ở Ấn Độ đã và đang rục rịch chuẩn bị cho lễ hội Diwali, hứa hẹn giúp các nhà sản xuất điện thoại nâng cao doanh số bán hàng trong những tháng cuối năm 2019. Trong khi đó ở Trung Quốc kỳ nghỉ dài ngày nhân dịp lễ Quốc Khánh cũng là cơ hội hiếm có để ổn định thị trường. 

Ngoài ra Counterpoint cũng thống kê những thương hiệu smartphone lớn trong báo cáo của mình, bên cạnh các tên tuổi lớn như Iphone, Samsung thì chứng kiến sự bứt phá tuyệt vời của Realme và Tecno, thì các thương hiệu lớn một thời như LG, Motorola, Nokia đã lọt khỏi top 10 chung cuộc. 

Smartphone càng cải tiến dung lượng bộ nhớ, người mua càng trả nhiều tiền? 

Mỗi GB dung lượng trên smartphone, chúng ta phải trả bao nhiêu tiền? Đó là câu hỏi mà dám chắc nhiều người dùng điện thoại thông minh ngày nay thường bỏ qua. Công nghệ càng cải tiến, dung lượng bộ nhớ càng được nâng cao, nhưng thật sự đây có phải là cuộc chơi công bằng? Và liệu Apple với siêu phẩm Iphone có phải là kẻ hút máu nhiều nhất? 

Một chiếc điện thoại có tốt hay không rõ ràng không phụ thuộc hay liên quan nhiều tới việc người dùng có thể tải hay lưu trữ mọi ứng dụng, ảnh, video. Có rất nhiều thành phần thiết yếu tạo nên một chiếc smartphone, bộ nhớ chỉ là một trong số đó. Thậm chí, với công nghệ lưu trữ đám mây như hiện tại thì nhiều người cho rằng việc lưu trữ cục bộ sẽ dần không còn hiệu quả và sớm muộn bị thay thế. 

Tuy nhiên, đó cũng chỉ là dự đoán, thực tế việc sở hữu một chiếc điện thoại có bộ nhớ lưu trữ khủng vẫn là ưu tiên hàng đầu của người dùng. Chưa kể trong thời đại bùng nổ công nghệ các loại video 4k 60FPS cùng các game online cấu hình cao tốn dung lượng không hề nhỏ thì nhu cầu lưu trữ cục bộ lại càng cần thiết hơn bao giờ hết. 

Khi so sánh về giá thì có thể thấy các dòng điện thoại có bộ nhớ càng cao thì đi kèm giá cao hơn. 

Tuy nhiên, điện thoại có nhiều bộ nhớ hơn thì đi kèm với giá cao hơn. Vậy hãy cùng so sánh xem các mẫu điện thoại hàng đầu (flagship) ra mắt trong năm 2019 này, có tỷ lệ lưu trữ trên giá thành ở mức cao thấp ra sao.

Thông thường, với những so sánh như thế này thì sẽ xem xét các dòng điện thoại hàng đầu (flagship) thì cần dựa trên các yếu tố:

  • Thông số kĩ thuật cốt lõi hàng đầu: ví dụ điện thoại dùng chip Snapdragon 855 plus, 855 hay Kirin 990, 980…) 
  • Giá công bố ban đầu, không tính giá giảm khuyến mãi sau đó.
  • Các mẫu điện thoại có nhiều RAM nhưng dung lượng lưu trữ chưa chắc giống nhau. 
  • Không xét điện thoại 5G, các phiên bản giới hạn hoặc đặc biệt.

Hãng Qantas Airways thử nghiệm chuyến bay dài nhất lịch sử cất cánh ở độ cao 12km trong 20 giờ

Hãng hàng không Qantas Airways của Australia  vừa lên kế hoạch mở và khai thác đường bay thương mại dài nhất trong lịch sử. Chiếc Dreamliner sẽ được dùng như một đại thử nghiệm ở độ cao 12km cất cánh ở New York và vượt qua chặng đường 16.200 km để hạ cánh ở Sydney sau 19 tiếng 30 phút lênh đênh trên bầu trời. 

Đây là một thử nghiệm mang tính cách mạng, một thử nghiệm khoa học thực sự. Bởi trước đây chưa từng có hãng hàng không nào khai thác một đường bay với độ dài kỷ lục như vậy. Chiếc Boeing 787 Dreamliner sẽ chở 50 con chuột bạch thí nghiệm để làm những phi hành đoàn dũng cảm nhất chuyến bay. Các nhà khoa học sẽ nghiên cứu não bộ của mỗi phi công, theo dõi các chế độ dinh dưỡng, giấc ngủ và hoạt động của hành khách với mục đích kiểm tra khả năng chịu đựng của con người trong những chuyến bay dài hơi như vậy hay không. 

Trong những năm gần đây, sự phát triển của khoa học vật liệu và khoa học khí động học giúp cho những chiếc máy bay thương mại trở nên nhẹ đi rất nhiều, có khả năng bay cao hơn, nhanh hơn, xa hơn. Chính vì thế các hãng hàng không cũng bắt tay vào khai thác những đường bay xuyên lục địa có độ dài chưa từng có. Đơn cử năm ngoái hãng Singapore Airlines đã thực hiện chuyến bay thẳng đến New York vô cùng thành công, và sắp tới là Qantas

Thậm chí hãng hàng không Australia này còn có kế hoạch khai thác thêm đường bay từ London đến Sydney với chiều dài còn khủng hơn cả tuyến New York – Sydney, thời gian dự kiến là 20 tiếng 30 phút. Tất nhiên trong những chuyến bay dài như vậy thì Jet lag luôn là vấn đề được quan tâm nhiều nhất và chú trọng nhất. 

Người chơi Thể Thao điện tử ít quan tâm đến bản chất phi tập trung của NFT

Theo một báo cáo mới đây về hệ sinh thái trò chơi điện tử dựa trên blockchain, thì khả năng trộn và trao đổi dữ liệu giữa các trò chơi – vốn được xem là đặc điểm nổi bật nhất của mô hình này lại không thực sự “hot” như nhiều người vẫn nghĩ. 

Các series về sự giao thoa giữa các trò chơi như Super Smash Brothers của Nintendo là ví dụ điển hình nhất thể hiện cách tiếp cận kết hợp các nhân vật với nhau trong một trò chơi. Tất nhiên mọi sự kết hợp đều nằm dưới sự kiểm soát của Nintendo. Các trò chơi blockchain vốn hứa hẹn là mang đến một trải nghiệm mới cho người chơi, trong đó họ có thể thoải mái, lựa chọn hoặc chuyển sang bất kỳ trò nào mình yêu thích. 

Khi Fred Wilson của hãng Union Square Ventures ứng dụng tài sản trí tuệ vào trong các trò chơi trong hệ thống blockchain của họ, cho phép mở rộng tích hợp chúng dưới một cái tên khác Dapper Labs. Đây cũng là công ty đứng ra tổ chức các giải đấu như CryptoKitties, Cheese Wizards. Họ phát biểu rằng: thử tưởng tượng nếu các nhà phát triển xây dựng thế giới mới trên Fortnite và người chơi có thể tự chọn nhân vật, vũ khí, phương tiện… vào trong chính thế giới đó thì “khả năng mở rộng” sẽ tuyệt vời như thế nào. 

Nhưng dường như mọi thứ mới chỉ trên lý thuyết và mơ ước của các nhà phát hành game. Bởi theo NonFungible.con phát hiện rằng hầu hết người chơi trong không gian token là không thể thay thế (NFT) – nghĩa là nhiều nhà sưu tập NFT hoặc game thủ sẽ không thể vượt qua nổi trải nghiệm đầu tiên và đạt được chúng. 

Báo cáo gần đây nhất đưa ra các phân tích về giao dịch trò chơi on-chain trong cả năm  – phải hoạt động thực tế và đăng nhập trên một blockchain, ví dụ như đúc token hoặc tương tác với token khác và 91% trong số  người chơi chỉ tương tác với 1 game từ tháng giêng. Báo cáo trước đó của NIntendo cũng đưa ra con số tương tự khi 90.1 % người dùng chỉ giao dịch một trò chơi NFT.

Từ bỏ mức lương 200.000 USD, tiến sĩ công nghệ gọi vốn triệu đô trên Shark Tank

Trong tập phát sóng gần đây của chương trình Shark Tank mùa 3, Lê Mai Tùng là Founder và CEO của EyeQ Tech đã gọi 1 triệu USD cho 3,3% cổ phần. EyeQ Tech là một công ty trí tuệ nhân tạo nhận dạng mặt người, hành động và sản phẩm. Thông qua công nghệ Visual AI của EyeQ Tech sẽ biến camera bình thường thành camera thông minh nhằm ghi lại insight của khách hàng ghé thăm, từ đó trở thành data cung cấp cho những đơn vị cần dùng trí tuệ nhân tạo để phát triển mô hình kinh doanh. 

Theo anh Tùng cho hay, công ty vốn được thành lập từ năm 2017, trong 2 năm đầu tiên tuy công nghệ còn sơ khai nhưng công ty cũng đã bán được sản phẩm. Năm 2018 doanh thu đạt 1,5 tỷ, biên lợi nhuận gộp lên đến 90%. Anh cũng tuyên bố EyeQ Tech sẽ là công ty đầu tiên có data bán lẻ và ngân hàng nhiều nhất nhất Việt Nam. Hiện công ty có hai đối tác lớn là Unilever và Vinpearl. Số tiền 1 triệu USD gọi vốn được dùng để trả lương cho đội ngũ kỹ sư công nghệ và các nhân viên sale của công ty. 

Tuy nhiên, các Shark lại có cái nhìn không khả quan lắm với ứng dụng này, nhất là về khoản định giá “trên trời”. Theo Shark Thủy, mô hình này có tính ứng dụng cao, tuy nhiên trên thị trường đã có nhiều mô hình trước đó đã làm rồi. Các dự án về công nghệ, ai đi trước thì có lợi thế về tệp người dùng, khi đã có data đủ lớn thì những người đi sau không có nhiều cơ hội. Nhìn nhận định giá công ty chỉ nằm trong khoảng 1 triệu USD, những con số 33 triệu đô của startup đưa ra khiến các Shark không thể hình dung rõ ràng về doanh nghiệp để đưa ra đánh giá đúng. 

Trong khi đó Shark Dzung Nguyễn lại cho rằng về cơ bản trí tuệ AI chỉ giỏi ở một số lĩnh vực mà mình tạo ra nó, trong khi EyeQ Tech lại đang phân tán vào rất nhiều lĩnh vực, nên sẽ rất khó ứng dụng. 

 

Bitcoin sẽ đi về đâu khi thị trường tiền ảo đang ngập trong sắc đỏ?

Mấy ngày vừa qua có vẻ là những ngày không được yên bình với các nhà giao dịch Bitcoin, khi các chỉ số thị trường tiền ảo này ngập tràn sắc đỏ, riêng bitcoin mất 6,5% chỉ trong vòng 24 giờ, về lại mốc 10.000 USD. Ở thời điểm hiện tại, vào ngày 22/08 vừa qua, giá Bitcoin trên sàn giao dịch Bitstamp ghi nhận được mức 10.130 USD, giảm đến 6.06 %, mỗi coin mất 615 USD. Thậm chí còn xuống dưới mức 10.000 tận 5 lần kể từ tháng 8/2019, mức thấp nhất chạm  9.900 USD.

Theo tính toán và thống kê từ trang CoinMarketCap, tổng số giao dịch bitcoin trong ngày vừa qua là 19.3 tỷ USD, tăng gần 5 tỷ so với ngày hôm trước đó. Thế nhưng vốn hóa thị trường Bitcoin lại giảm mạnh 12,9 tỷ, tạm ghi nhận ở mức 180 tỷ USD. 

Không chỉ riêng Bitcoin, mà thị trường tiền ảo nói chung cũng cùng một tình trạng. Đồng 

Nhiều tiền ảo hàng đầu cũng lao dốc theo Bitcoin. Cụ thể, Ethereum, đồng tiền ảo có giá trị chỉ sau bitcoin, đứng thứ 2 về vốn hóa thị trường, cũng lao dốc giảm xuống chỉ còn 185,6 USD, tỷ lệ 5,69%. Vốn hóa hiện tại đạt gần 20 tỷ, giảm hơn 2 tỷ so với thời điểm ngày hôm trước. 

Đồng tiền Ripple cũng không nằm ngoài vòng xoáy thị trường, giảm 3.8% xuống chỉ còn 0,264%, tổng khối lượng giao dịch chỉ còn 1,1 tỷ USD và vốn hóa đạt mức 11.3 tỷ USD. 

Nhìn chung ra, thị trường lao dốc bốc hơi hơn 16 tỷ USD, top 10 đồng tiền ảo có giá trị nhất hiện tại chỉ ghi nhận mức 261 tỷ USD. Hiện trạng này ở Việt Nam cũng không tránh khỏi. 

Còn nhớ hồi tháng 5, giá bitcoin tăng mạnh khiến các chuyên gia đặt niềm tin về việc thị trường tiền ảo sẽ huy hoàng trở lại. Tuy nhiên, so với mức giảm như hiện tại thì đâu mới là điểm cuối giảm thì vẫn là câu hỏi chưa tìm được lời giải đáp. 

Token Airdrops Are Taking Off Despite Legal Concerns

With the long awaited geth 1.5 (“let there bee light”) release, Swarm made it into the official go-ethereum release as an experimental feature. The current version of the code is POC 0.2 RC5 — “embrace your daemons” (roadmap), which is the refactored and cleaner version of the codebase that was running on the Swarm toynet in the past months.

The current release ships with the swarmcommand that launches a standalone Swarm daemon as separate process using your favourite IPC-compliant ethereum client if needed. Bandwidth accounting (using the Swarm Accounting Protocol = SWAP) is responsible for smooth operation and speedy content delivery by incentivising nodes to contribute their bandwidth and relay data. The SWAP system is functional but it is switched off by default. Storage incentives (punitive insurance) to protect availability of rarely-accessed content is planned to be operational in POC 0.4. So currently by default, the client uses the blockchain only for domain name resolution.

With this blog post we are happy to announce the launch of our shiny new Swarm testnet connected to the Ropsten ethereum testchain. The Ethereum Foundation is contributing a 35-strong (will be up to 105) Swarm cluster running on the Azure cloud. It is hosting the Swarm homepage.

We consider this testnet as the first public pilot, and the community is welcome to join the network, contribute resources, issues, identify painpoints and give feedback on useability. Instructions can be found in the Swarm guide. We encourage those who can afford to run persistent nodes (nodes that stay online) to get in touch. We have already received promises for 100TB deployments. Note that the testnet offers no guarantees! Data may be lost or become unavailable. Indeed guarantees of persistence cannot be made at least until the storage insurance incentive layer is implemented.

Note that the testnet offers no guarantees! Data may be lost or become unavailable. Indeed guarantees of persistence cannot be made at least until the storage insurance incentive layer is implemented.

We envision shaping this project with more and more community involvement, so we are inviting those interested to join

How does Swarm work?

Swarm is a distributed storage platform and content distribution service; a native base layer service of the ethereum Web3 stack. The objective is a peer-to-peer storage and serving solution that has zero downtime, is DDOS-resistant, fault-tolerant and censorship-resistant as well as self-sustaining due to a built-in incentive system. The incentive layer uses peer-to-peer accounting for bandwidth, deposit-based storage incentives and allows trading resources for payment. Swarm is designed to deeply integrate with the devp2p multiprotocol network layer of Ethereum as well as with the Ethereum blockchain for domain name resolution.

This hash of a chunk is the address that clients can use to retrieve the chunk (the hash’s preimage). Irreversible and collision-free addressing immediately provides integrity protection: no matter the context of how a client knows about an address, it can tell if the chunk is damaged or has been tampered with just by hashing it.

Swarm’s main offering as a distributed chunkstore is that you can upload content to it. The nodes constituting the Swarm all dedicate resources (diskspace, memory, bandwidth and CPU) to store and serve chunks. But what determines who is keeping a chunk? Swarm nodes have an address (the hash of the address of their bzz-account) in the same keyspace as the chunks themselves. Lets call this address space the overlay network. If we upload a chunk to the Swarm, the protocol determines that it will eventually end up being stored at nodes that are closest to the chunk’s address (according to a well-defined distance measure on the overlay address space). The process by which chunks get to their address is called syncing and is part of the protocol. Nodes that later want to retrieve the content can find it again by forwarding a query to nodes that are close the the content’s address. Indeed, when a node needs a chunk, it simply posts a request to the Swarm with the address of the content, and the Swarm will forward the requests until the data is found (or the request times out). In this regard, Swarm is similar to a traditional distributed hash table (DHT) but with two important (and under-researched) features.

  • Vitalik’s whitepaper the Ethereum dev core realised
  • When she reached the first hills
  • A small river named Duden flows
  • Self-sustaining due to a built-in incentive system
Documents and the Swarm hash

On the API layer Swarm provides a chunker. The chunker takes any kind of readable source, such as a file or a video camera capture device, and chops it into fix-sized chunks. These so-called data chunks or leaf chunks are hashed and then synced with peers. The hashes of the data chunks are then packaged into chunks themselves (called intermediate chunks) and the process is repeated. Currently 128 hashes make up a new chunk. As a result the data is represented by a merkle tree, and it is the root hash of the tree that acts as the address you use to retrieve the uploaded file.

Since Embracing Bitcoin, Robinhood App Value Jumps to $5.6 Billion

With the long awaited geth 1.5 (“let there bee light”) release, Swarm made it into the official go-ethereum release as an experimental feature. The current version of the code is POC 0.2 RC5 — “embrace your daemons” (roadmap), which is the refactored and cleaner version of the codebase that was running on the Swarm toynet in the past months.

The current release ships with the swarmcommand that launches a standalone Swarm daemon as separate process using your favourite IPC-compliant ethereum client if needed. Bandwidth accounting (using the Swarm Accounting Protocol = SWAP) is responsible for smooth operation and speedy content delivery by incentivising nodes to contribute their bandwidth and relay data. The SWAP system is functional but it is switched off by default. Storage incentives (punitive insurance) to protect availability of rarely-accessed content is planned to be operational in POC 0.4. So currently by default, the client uses the blockchain only for domain name resolution.

With this blog post we are happy to announce the launch of our shiny new Swarm testnet connected to the Ropsten ethereum testchain. The Ethereum Foundation is contributing a 35-strong (will be up to 105) Swarm cluster running on the Azure cloud. It is hosting the Swarm homepage.

We consider this testnet as the first public pilot, and the community is welcome to join the network, contribute resources, issues, identify painpoints and give feedback on useability. Instructions can be found in the Swarm guide. We encourage those who can afford to run persistent nodes (nodes that stay online) to get in touch. We have already received promises for 100TB deployments. Note that the testnet offers no guarantees! Data may be lost or become unavailable. Indeed guarantees of persistence cannot be made at least until the storage insurance incentive layer is implemented.

Note that the testnet offers no guarantees! Data may be lost or become unavailable. Indeed guarantees of persistence cannot be made at least until the storage insurance incentive layer is implemented.

We envision shaping this project with more and more community involvement, so we are inviting those interested to join

How does Swarm work?

Swarm is a distributed storage platform and content distribution service; a native base layer service of the ethereum Web3 stack. The objective is a peer-to-peer storage and serving solution that has zero downtime, is DDOS-resistant, fault-tolerant and censorship-resistant as well as self-sustaining due to a built-in incentive system. The incentive layer uses peer-to-peer accounting for bandwidth, deposit-based storage incentives and allows trading resources for payment. Swarm is designed to deeply integrate with the devp2p multiprotocol network layer of Ethereum as well as with the Ethereum blockchain for domain name resolution.

This hash of a chunk is the address that clients can use to retrieve the chunk (the hash’s preimage). Irreversible and collision-free addressing immediately provides integrity protection: no matter the context of how a client knows about an address, it can tell if the chunk is damaged or has been tampered with just by hashing it.

Swarm’s main offering as a distributed chunkstore is that you can upload content to it. The nodes constituting the Swarm all dedicate resources (diskspace, memory, bandwidth and CPU) to store and serve chunks. But what determines who is keeping a chunk? Swarm nodes have an address (the hash of the address of their bzz-account) in the same keyspace as the chunks themselves. Lets call this address space the overlay network. If we upload a chunk to the Swarm, the protocol determines that it will eventually end up being stored at nodes that are closest to the chunk’s address (according to a well-defined distance measure on the overlay address space). The process by which chunks get to their address is called syncing and is part of the protocol. Nodes that later want to retrieve the content can find it again by forwarding a query to nodes that are close the the content’s address. Indeed, when a node needs a chunk, it simply posts a request to the Swarm with the address of the content, and the Swarm will forward the requests until the data is found (or the request times out). In this regard, Swarm is similar to a traditional distributed hash table (DHT) but with two important (and under-researched) features.

  • Vitalik’s whitepaper the Ethereum dev core realised
  • When she reached the first hills
  • A small river named Duden flows
  • Self-sustaining due to a built-in incentive system
Documents and the Swarm hash

On the API layer Swarm provides a chunker. The chunker takes any kind of readable source, such as a file or a video camera capture device, and chops it into fix-sized chunks. These so-called data chunks or leaf chunks are hashed and then synced with peers. The hashes of the data chunks are then packaged into chunks themselves (called intermediate chunks) and the process is repeated. Currently 128 hashes make up a new chunk. As a result the data is represented by a merkle tree, and it is the root hash of the tree that acts as the address you use to retrieve the uploaded file.

Ukraine to Legalize Crypto Mining as Economic Activity

With the long awaited geth 1.5 (“let there bee light”) release, Swarm made it into the official go-ethereum release as an experimental feature. The current version of the code is POC 0.2 RC5 — “embrace your daemons” (roadmap), which is the refactored and cleaner version of the codebase that was running on the Swarm toynet in the past months.

The current release ships with the swarmcommand that launches a standalone Swarm daemon as separate process using your favourite IPC-compliant ethereum client if needed. Bandwidth accounting (using the Swarm Accounting Protocol = SWAP) is responsible for smooth operation and speedy content delivery by incentivising nodes to contribute their bandwidth and relay data. The SWAP system is functional but it is switched off by default. Storage incentives (punitive insurance) to protect availability of rarely-accessed content is planned to be operational in POC 0.4. So currently by default, the client uses the blockchain only for domain name resolution.

With this blog post we are happy to announce the launch of our shiny new Swarm testnet connected to the Ropsten ethereum testchain. The Ethereum Foundation is contributing a 35-strong (will be up to 105) Swarm cluster running on the Azure cloud. It is hosting the Swarm homepage.

We consider this testnet as the first public pilot, and the community is welcome to join the network, contribute resources, issues, identify painpoints and give feedback on useability. Instructions can be found in the Swarm guide. We encourage those who can afford to run persistent nodes (nodes that stay online) to get in touch. We have already received promises for 100TB deployments. Note that the testnet offers no guarantees! Data may be lost or become unavailable. Indeed guarantees of persistence cannot be made at least until the storage insurance incentive layer is implemented.

Note that the testnet offers no guarantees! Data may be lost or become unavailable. Indeed guarantees of persistence cannot be made at least until the storage insurance incentive layer is implemented.

We envision shaping this project with more and more community involvement, so we are inviting those interested to join

How does Swarm work?

Swarm is a distributed storage platform and content distribution service; a native base layer service of the ethereum Web3 stack. The objective is a peer-to-peer storage and serving solution that has zero downtime, is DDOS-resistant, fault-tolerant and censorship-resistant as well as self-sustaining due to a built-in incentive system. The incentive layer uses peer-to-peer accounting for bandwidth, deposit-based storage incentives and allows trading resources for payment. Swarm is designed to deeply integrate with the devp2p multiprotocol network layer of Ethereum as well as with the Ethereum blockchain for domain name resolution.

This hash of a chunk is the address that clients can use to retrieve the chunk (the hash’s preimage). Irreversible and collision-free addressing immediately provides integrity protection: no matter the context of how a client knows about an address, it can tell if the chunk is damaged or has been tampered with just by hashing it.

Swarm’s main offering as a distributed chunkstore is that you can upload content to it. The nodes constituting the Swarm all dedicate resources (diskspace, memory, bandwidth and CPU) to store and serve chunks. But what determines who is keeping a chunk? Swarm nodes have an address (the hash of the address of their bzz-account) in the same keyspace as the chunks themselves. Lets call this address space the overlay network. If we upload a chunk to the Swarm, the protocol determines that it will eventually end up being stored at nodes that are closest to the chunk’s address (according to a well-defined distance measure on the overlay address space). The process by which chunks get to their address is called syncing and is part of the protocol. Nodes that later want to retrieve the content can find it again by forwarding a query to nodes that are close the the content’s address. Indeed, when a node needs a chunk, it simply posts a request to the Swarm with the address of the content, and the Swarm will forward the requests until the data is found (or the request times out). In this regard, Swarm is similar to a traditional distributed hash table (DHT) but with two important (and under-researched) features.

  • Vitalik’s whitepaper the Ethereum dev core realised
  • When she reached the first hills
  • A small river named Duden flows
  • Self-sustaining due to a built-in incentive system
Documents and the Swarm hash

On the API layer Swarm provides a chunker. The chunker takes any kind of readable source, such as a file or a video camera capture device, and chops it into fix-sized chunks. These so-called data chunks or leaf chunks are hashed and then synced with peers. The hashes of the data chunks are then packaged into chunks themselves (called intermediate chunks) and the process is repeated. Currently 128 hashes make up a new chunk. As a result the data is represented by a merkle tree, and it is the root hash of the tree that acts as the address you use to retrieve the uploaded file.

South Korea Planning to Formally Allow ICOs

With the long awaited geth 1.5 (“let there bee light”) release, Swarm made it into the official go-ethereum release as an experimental feature. The current version of the code is POC 0.2 RC5 — “embrace your daemons” (roadmap), which is the refactored and cleaner version of the codebase that was running on the Swarm toynet in the past months.

The current release ships with the swarmcommand that launches a standalone Swarm daemon as separate process using your favourite IPC-compliant ethereum client if needed. Bandwidth accounting (using the Swarm Accounting Protocol = SWAP) is responsible for smooth operation and speedy content delivery by incentivising nodes to contribute their bandwidth and relay data. The SWAP system is functional but it is switched off by default. Storage incentives (punitive insurance) to protect availability of rarely-accessed content is planned to be operational in POC 0.4. So currently by default, the client uses the blockchain only for domain name resolution.

With this blog post we are happy to announce the launch of our shiny new Swarm testnet connected to the Ropsten ethereum testchain. The Ethereum Foundation is contributing a 35-strong (will be up to 105) Swarm cluster running on the Azure cloud. It is hosting the Swarm homepage.

We consider this testnet as the first public pilot, and the community is welcome to join the network, contribute resources, issues, identify painpoints and give feedback on useability. Instructions can be found in the Swarm guide. We encourage those who can afford to run persistent nodes (nodes that stay online) to get in touch. We have already received promises for 100TB deployments. Note that the testnet offers no guarantees! Data may be lost or become unavailable. Indeed guarantees of persistence cannot be made at least until the storage insurance incentive layer is implemented.

Note that the testnet offers no guarantees! Data may be lost or become unavailable. Indeed guarantees of persistence cannot be made at least until the storage insurance incentive layer is implemented.

We envision shaping this project with more and more community involvement, so we are inviting those interested to join

How does Swarm work?

Swarm is a distributed storage platform and content distribution service; a native base layer service of the ethereum Web3 stack. The objective is a peer-to-peer storage and serving solution that has zero downtime, is DDOS-resistant, fault-tolerant and censorship-resistant as well as self-sustaining due to a built-in incentive system. The incentive layer uses peer-to-peer accounting for bandwidth, deposit-based storage incentives and allows trading resources for payment. Swarm is designed to deeply integrate with the devp2p multiprotocol network layer of Ethereum as well as with the Ethereum blockchain for domain name resolution.

This hash of a chunk is the address that clients can use to retrieve the chunk (the hash’s preimage). Irreversible and collision-free addressing immediately provides integrity protection: no matter the context of how a client knows about an address, it can tell if the chunk is damaged or has been tampered with just by hashing it.

Swarm’s main offering as a distributed chunkstore is that you can upload content to it. The nodes constituting the Swarm all dedicate resources (diskspace, memory, bandwidth and CPU) to store and serve chunks. But what determines who is keeping a chunk? Swarm nodes have an address (the hash of the address of their bzz-account) in the same keyspace as the chunks themselves. Lets call this address space the overlay network. If we upload a chunk to the Swarm, the protocol determines that it will eventually end up being stored at nodes that are closest to the chunk’s address (according to a well-defined distance measure on the overlay address space). The process by which chunks get to their address is called syncing and is part of the protocol. Nodes that later want to retrieve the content can find it again by forwarding a query to nodes that are close the the content’s address. Indeed, when a node needs a chunk, it simply posts a request to the Swarm with the address of the content, and the Swarm will forward the requests until the data is found (or the request times out). In this regard, Swarm is similar to a traditional distributed hash table (DHT) but with two important (and under-researched) features.

  • Vitalik’s whitepaper the Ethereum dev core realised
  • When she reached the first hills
  • A small river named Duden flows
  • Self-sustaining due to a built-in incentive system
Documents and the Swarm hash

On the API layer Swarm provides a chunker. The chunker takes any kind of readable source, such as a file or a video camera capture device, and chops it into fix-sized chunks. These so-called data chunks or leaf chunks are hashed and then synced with peers. The hashes of the data chunks are then packaged into chunks themselves (called intermediate chunks) and the process is repeated. Currently 128 hashes make up a new chunk. As a result the data is represented by a merkle tree, and it is the root hash of the tree that acts as the address you use to retrieve the uploaded file.