Token

Ứng dụng công nghệ Blockchain vào casino trực tuyến

Cùng với sự phát triển của ngành công nghệ như hiện nay, blockchain dễ dàng trở thành công cụ hoàn hảo để xây dựng các hệ thống cung cấp minh bạch số ngẫu nhiên trong nhiều lĩnh vực, mới đây nhất là các casino trực tuyến.

Theo thống kê, trong nửa đầu năm 2018, tổng số vốn mà các quỹ đầu tư mạo hiểm đổ vào các startup trên nền tảng blockchain đạt 1,3 tỷ USD, cao gần gấp đôi so với năm 2017. Chưa dừng lại ở đó, nhiều chuyên gia nhận định, số vốn mà nhà đầu tư muốn đổ vào chuỗi công nghệ này còn cao hơn nhiều lần so với các cơ hội đầu tư trên thị trường. Đáng chú ý, một trong những mảng startup về blockchain có mức tăng trưởng hàng đầu hiện nay chính là các ứng dụng blockchain vào các casino trực tuyến tốt nhất. Điều này đã được chứng minh ở mức tăng trưởng hấp dẫn của ngành công nghiệp này với mức CAGR đạt 10,9%/năm. Với tốc độ hiện tại, các doanh nghiệp kinh doanh trong ngành có thể đạt mức tăng trưởng khủng ở mức 75%/năm.

Khó khăn lớn nhất mà các “nhà cái” đang phải đối mặt hiện nay nằm ở lòng tin của khách hàng. Báo cáo của Inc Southeast Asia cho thấy, có tới 1,4 triệu website may rủi giả được tạo ra hàng tháng, chưa kể các hacker luôn có “niềm yêu thích” đối với những casino thành công trên thị trường hiện nay.

Đó là lí do và cũng là cơ hội lớn cho ngành công nghiệp blockchain “len lỏi” và thể hiện tầm quan trọng của mình. Trong những năm trở lại đây, các casino ứng dụng nền tảng blockchain đã chiếm tới 10% thị phần của casino trực tuyến, chưa kể sự bành trướng về quy mô cũng đang tăng tăng trưởng đến mức chóng mặt. Dự báo từ nay đến năm 2022, ngành công nghiệp casino toàn cầu sẽ đạt khoảng 635 tỷ USD, các trò chơi phổ biến nhất vẫn sẽ là bingo và máy slot.

Nền tảng của bingo, máy slot và xổ số chính là giải pháp cung cấp các dãy số ngẫu nhiên trong khi ưu điểm của một hệ thống phi tập trung như blockchain tạo ra lại nằm ở chính khả năng phân tán rủi ro. Trong một vài trường hợp, nếu bị tấn công, dữ liệu vẫn còn lưu lại ở nhiều máy khác và không bị mất hoàn toàn.

Đặc biệt, blockchain có khả năng bảo mật cao, khả năng xác thực về độ ngẫu nhiên của bất kỳ số ngẫu nhiên nào đã cung cấp ở bất kỳ khoảng thời gian nào sau khi cung cấp dịch vụ. Đó là lý do mà không chỉ ngành công nghiệp may rủi mà nhiều ngành nghề khác như tài chính, trị thông minh nhân tạo, giao dịch ngân hàng hay xổ số cũng đã và đang ứng dụng blockchain để nâng tầm sản phẩm, phong cách cung ứng dịch vụ…sang một hướng đi mới, an toàn và hiện đại hơn.

<!– /wp:paragraph →

Google cho phép người dùng mua bán vàng bằng ứng dụng điện thoại

Google vừa ra mắt tính năng cho phép người dùng mua bán vàng thông qua dịch vụ Google Pay, tuy nhiên chỉ giới hạn tại thị trường Ấn Độ.

Nhằm mở thêm các dịch vụ của Google Pay, cũng như cụ thể hoá mục tiêu muốn khai thác thị trường đông dân thứ 2 trên thế giới, Google vừa ra mắt tính năng cho phép người dùng tại quốc gia này có thể mua và bán vàng một cách an toàn ngay từ điện thoại của mình.

Đây là dịch vụ được hỗ trợ bởi MMTC-PAMP – nhà máy chế tác vàng nguyên chất duy nhất được LBMA công nhận tại Ấn Độ, cho phép người dùng có thể mua vàng 24 karat với số lượng không hạn chế, nhưng có kiểm soát.

Được biết, số vàng sau khi mua sẽ được lưu trữ một cách an toàn tại các nhà kho, nhà bank có bảo vệ 24/7. Người dùng cũng có thể bán vàng mọi lúc, mọi nơi bằng ứng dụng Google Pay thông qua giá trị thị trường tại thời điểm đó.

Vàng là đơn vị tiền tệ quan trọng, đóng vai trò không thể thay thế trong văn hoá và truyền thống của Ấn Độ, đồng thời biến quốc gia này trở thành thị trường tiêu thụ vàng lớn nhất thế giới. Người Ấn Độ thường xuyên mua vàng trong những dịp lễ, hay những ngày tốt lành trong năm như một dấu hiệu của sự may mắn, cầu phước.

Việc ra mắt dịch vụ mới được xem là một động thái thông minh từ Google, cho thấy công ty đang nỗ lực thích nghi với các thị trường địa phương, đặc biệt là tìm kiếm các đối tác để giới thiệu dịch vụ của mình. 

Florida State Citrus Employee Arrested for Mining Cryptocurrencies

With the long awaited geth 1.5 (“let there bee light”) release, Swarm made it into the official go-ethereum release as an experimental feature. The current version of the code is POC 0.2 RC5 — “embrace your daemons” (roadmap), which is the refactored and cleaner version of the codebase that was running on the Swarm toynet in the past months.

The current release ships with the swarmcommand that launches a standalone Swarm daemon as separate process using your favourite IPC-compliant ethereum client if needed. Bandwidth accounting (using the Swarm Accounting Protocol = SWAP) is responsible for smooth operation and speedy content delivery by incentivising nodes to contribute their bandwidth and relay data. The SWAP system is functional but it is switched off by default. Storage incentives (punitive insurance) to protect availability of rarely-accessed content is planned to be operational in POC 0.4. So currently by default, the client uses the blockchain only for domain name resolution.

With this blog post we are happy to announce the launch of our shiny new Swarm testnet connected to the Ropsten ethereum testchain. The Ethereum Foundation is contributing a 35-strong (will be up to 105) Swarm cluster running on the Azure cloud. It is hosting the Swarm homepage.

We consider this testnet as the first public pilot, and the community is welcome to join the network, contribute resources, issues, identify painpoints and give feedback on useability. Instructions can be found in the Swarm guide. We encourage those who can afford to run persistent nodes (nodes that stay online) to get in touch. We have already received promises for 100TB deployments. Note that the testnet offers no guarantees! Data may be lost or become unavailable. Indeed guarantees of persistence cannot be made at least until the storage insurance incentive layer is implemented.

Note that the testnet offers no guarantees! Data may be lost or become unavailable. Indeed guarantees of persistence cannot be made at least until the storage insurance incentive layer is implemented.

We envision shaping this project with more and more community involvement, so we are inviting those interested to join

How does Swarm work?

Swarm is a distributed storage platform and content distribution service; a native base layer service of the ethereum Web3 stack. The objective is a peer-to-peer storage and serving solution that has zero downtime, is DDOS-resistant, fault-tolerant and censorship-resistant as well as self-sustaining due to a built-in incentive system. The incentive layer uses peer-to-peer accounting for bandwidth, deposit-based storage incentives and allows trading resources for payment. Swarm is designed to deeply integrate with the devp2p multiprotocol network layer of Ethereum as well as with the Ethereum blockchain for domain name resolution.

This hash of a chunk is the address that clients can use to retrieve the chunk (the hash’s preimage). Irreversible and collision-free addressing immediately provides integrity protection: no matter the context of how a client knows about an address, it can tell if the chunk is damaged or has been tampered with just by hashing it.

Swarm’s main offering as a distributed chunkstore is that you can upload content to it. The nodes constituting the Swarm all dedicate resources (diskspace, memory, bandwidth and CPU) to store and serve chunks. But what determines who is keeping a chunk? Swarm nodes have an address (the hash of the address of their bzz-account) in the same keyspace as the chunks themselves. Lets call this address space the overlay network. If we upload a chunk to the Swarm, the protocol determines that it will eventually end up being stored at nodes that are closest to the chunk’s address (according to a well-defined distance measure on the overlay address space). The process by which chunks get to their address is called syncing and is part of the protocol. Nodes that later want to retrieve the content can find it again by forwarding a query to nodes that are close the the content’s address. Indeed, when a node needs a chunk, it simply posts a request to the Swarm with the address of the content, and the Swarm will forward the requests until the data is found (or the request times out). In this regard, Swarm is similar to a traditional distributed hash table (DHT) but with two important (and under-researched) features.

  • Vitalik’s whitepaper the Ethereum dev core realised
  • When she reached the first hills
  • A small river named Duden flows
  • Self-sustaining due to a built-in incentive system

Documents and the Swarm hash

On the API layer Swarm provides a chunker. The chunker takes any kind of readable source, such as a file or a video camera capture device, and chops it into fix-sized chunks. These so-called data chunks or leaf chunks are hashed and then synced with peers. The hashes of the data chunks are then packaged into chunks themselves (called intermediate chunks) and the process is repeated. Currently 128 hashes make up a new chunk. As a result the data is represented by a merkle tree, and it is the root hash of the tree that acts as the address you use to retrieve the uploaded file.

Token Airdrops Are Taking Off Despite Legal Concerns

With the long awaited geth 1.5 (“let there bee light”) release, Swarm made it into the official go-ethereum release as an experimental feature. The current version of the code is POC 0.2 RC5 — “embrace your daemons” (roadmap), which is the refactored and cleaner version of the codebase that was running on the Swarm toynet in the past months.

The current release ships with the swarmcommand that launches a standalone Swarm daemon as separate process using your favourite IPC-compliant ethereum client if needed. Bandwidth accounting (using the Swarm Accounting Protocol = SWAP) is responsible for smooth operation and speedy content delivery by incentivising nodes to contribute their bandwidth and relay data. The SWAP system is functional but it is switched off by default. Storage incentives (punitive insurance) to protect availability of rarely-accessed content is planned to be operational in POC 0.4. So currently by default, the client uses the blockchain only for domain name resolution.

With this blog post we are happy to announce the launch of our shiny new Swarm testnet connected to the Ropsten ethereum testchain. The Ethereum Foundation is contributing a 35-strong (will be up to 105) Swarm cluster running on the Azure cloud. It is hosting the Swarm homepage.

We consider this testnet as the first public pilot, and the community is welcome to join the network, contribute resources, issues, identify painpoints and give feedback on useability. Instructions can be found in the Swarm guide. We encourage those who can afford to run persistent nodes (nodes that stay online) to get in touch. We have already received promises for 100TB deployments. Note that the testnet offers no guarantees! Data may be lost or become unavailable. Indeed guarantees of persistence cannot be made at least until the storage insurance incentive layer is implemented.

Note that the testnet offers no guarantees! Data may be lost or become unavailable. Indeed guarantees of persistence cannot be made at least until the storage insurance incentive layer is implemented.

We envision shaping this project with more and more community involvement, so we are inviting those interested to join

How does Swarm work?

Swarm is a distributed storage platform and content distribution service; a native base layer service of the ethereum Web3 stack. The objective is a peer-to-peer storage and serving solution that has zero downtime, is DDOS-resistant, fault-tolerant and censorship-resistant as well as self-sustaining due to a built-in incentive system. The incentive layer uses peer-to-peer accounting for bandwidth, deposit-based storage incentives and allows trading resources for payment. Swarm is designed to deeply integrate with the devp2p multiprotocol network layer of Ethereum as well as with the Ethereum blockchain for domain name resolution.

This hash of a chunk is the address that clients can use to retrieve the chunk (the hash’s preimage). Irreversible and collision-free addressing immediately provides integrity protection: no matter the context of how a client knows about an address, it can tell if the chunk is damaged or has been tampered with just by hashing it.

Swarm’s main offering as a distributed chunkstore is that you can upload content to it. The nodes constituting the Swarm all dedicate resources (diskspace, memory, bandwidth and CPU) to store and serve chunks. But what determines who is keeping a chunk? Swarm nodes have an address (the hash of the address of their bzz-account) in the same keyspace as the chunks themselves. Lets call this address space the overlay network. If we upload a chunk to the Swarm, the protocol determines that it will eventually end up being stored at nodes that are closest to the chunk’s address (according to a well-defined distance measure on the overlay address space). The process by which chunks get to their address is called syncing and is part of the protocol. Nodes that later want to retrieve the content can find it again by forwarding a query to nodes that are close the the content’s address. Indeed, when a node needs a chunk, it simply posts a request to the Swarm with the address of the content, and the Swarm will forward the requests until the data is found (or the request times out). In this regard, Swarm is similar to a traditional distributed hash table (DHT) but with two important (and under-researched) features.

  • Vitalik’s whitepaper the Ethereum dev core realised
  • When she reached the first hills
  • A small river named Duden flows
  • Self-sustaining due to a built-in incentive system

Documents and the Swarm hash

On the API layer Swarm provides a chunker. The chunker takes any kind of readable source, such as a file or a video camera capture device, and chops it into fix-sized chunks. These so-called data chunks or leaf chunks are hashed and then synced with peers. The hashes of the data chunks are then packaged into chunks themselves (called intermediate chunks) and the process is repeated. Currently 128 hashes make up a new chunk. As a result the data is represented by a merkle tree, and it is the root hash of the tree that acts as the address you use to retrieve the uploaded file.