btrfs: fix string and comment grammatical issues and typos
authorNicholas D Steeves <nsteeves@gmail.com>
Fri, 20 May 2016 01:18:45 +0000 (21:18 -0400)
committerDavid Sterba <dsterba@suse.com>
Wed, 25 May 2016 20:35:14 +0000 (22:35 +0200)
Signed-off-by: Nicholas D Steeves <nsteeves@gmail.com>
Signed-off-by: David Sterba <dsterba@suse.com>
33 files changed:
fs/btrfs/backref.c
fs/btrfs/btrfs_inode.h
fs/btrfs/check-integrity.c
fs/btrfs/ctree.c
fs/btrfs/ctree.h
fs/btrfs/delayed-ref.h
fs/btrfs/dev-replace.c
fs/btrfs/disk-io.c
fs/btrfs/extent-tree.c
fs/btrfs/extent_io.c
fs/btrfs/extent_map.c
fs/btrfs/file.c
fs/btrfs/free-space-cache.c
fs/btrfs/free-space-cache.h
fs/btrfs/inode.c
fs/btrfs/ioctl.c
fs/btrfs/ordered-data.h
fs/btrfs/qgroup.c
fs/btrfs/raid56.c
fs/btrfs/relocation.c
fs/btrfs/root-tree.c
fs/btrfs/scrub.c
fs/btrfs/send.c
fs/btrfs/struct-funcs.c
fs/btrfs/super.c
fs/btrfs/tests/extent-io-tests.c
fs/btrfs/tests/free-space-tests.c
fs/btrfs/tests/inode-tests.c
fs/btrfs/tests/qgroup-tests.c
fs/btrfs/transaction.h
fs/btrfs/tree-log.c
fs/btrfs/ulist.c
fs/btrfs/volumes.c

index 80e8472d618b83f397baca30508aa76e69e652c6..b8b598740bbd8c5de6160fba2efdb10cb155c2b7 100644 (file)
@@ -1939,7 +1939,7 @@ static int inode_to_path(u64 inum, u32 name_len, unsigned long name_off,
  * from ipath->fspath->val[i].
  * when it returns, there are ipath->fspath->elem_cnt number of paths available
  * in ipath->fspath->val[]. when the allocated space wasn't sufficient, the
- * number of missed paths in recored in ipath->fspath->elem_missed, otherwise,
+ * number of missed paths is recorded in ipath->fspath->elem_missed, otherwise,
  * it's zero. ipath->fspath->bytes_missing holds the number of bytes that would
  * have been needed to return all paths.
  */
index 61205e3bbefac237afadf36f961e32ce5e8e1661..c0a2018761f99dc95b500141af6f79847cecd99a 100644 (file)
@@ -303,7 +303,7 @@ struct btrfs_dio_private {
        struct bio *dio_bio;
 
        /*
-        * The original bio may be splited to several sub-bios, this is
+        * The original bio may be split to several sub-bios, this is
         * done during endio of sub-bios
         */
        int (*subio_endio)(struct inode *, struct btrfs_io_bio *, int);
index 516e19d1d202c6fe6c064b9b08a50d1527457680..b677a6ea6001a872fc27dd6f90db72459b69f712 100644 (file)
@@ -1939,7 +1939,7 @@ again:
                /*
                 * Clear all references of this block. Do not free
                 * the block itself even if is not referenced anymore
-                * because it still carries valueable information
+                * because it still carries valuable information
                 * like whether it was ever written and IO completed.
                 */
                list_for_each_entry_safe(l, tmp, &block->ref_to_list,
index ec7928a27aaad4c2241ef5b9dcd2048401861085..4997f175b446e3f81485b86820fec331d8d26238 100644 (file)
@@ -156,7 +156,7 @@ struct extent_buffer *btrfs_root_node(struct btrfs_root *root)
 
                /*
                 * RCU really hurts here, we could free up the root node because
-                * it was cow'ed but we may not get the new root node yet so do
+                * it was COWed but we may not get the new root node yet so do
                 * the inc_not_zero dance and if it doesn't work then
                 * synchronize_rcu and try again.
                 */
@@ -955,7 +955,7 @@ int btrfs_block_can_be_shared(struct btrfs_root *root,
                              struct extent_buffer *buf)
 {
        /*
-        * Tree blocks not in refernece counted trees and tree roots
+        * Tree blocks not in reference counted trees and tree roots
         * are never shared. If a block was allocated after the last
         * snapshot and the block was not allocated by tree relocation,
         * we know the block is not shared.
@@ -1270,7 +1270,7 @@ __tree_mod_log_oldest_root(struct btrfs_fs_info *fs_info,
 
 /*
  * tm is a pointer to the first operation to rewind within eb. then, all
- * previous operations will be rewinded (until we reach something older than
+ * previous operations will be rewound (until we reach something older than
  * time_seq).
  */
 static void
@@ -1345,7 +1345,7 @@ __tree_mod_log_rewind(struct btrfs_fs_info *fs_info, struct extent_buffer *eb,
 }
 
 /*
- * Called with eb read locked. If the buffer cannot be rewinded, the same buffer
+ * Called with eb read locked. If the buffer cannot be rewound, the same buffer
  * is returned. If rewind operations happen, a fresh buffer is returned. The
  * returned buffer is always read-locked. If the returned buffer is not the
  * input buffer, the lock on the input buffer is released and the input buffer
@@ -1516,7 +1516,7 @@ static inline int should_cow_block(struct btrfs_trans_handle *trans,
         * 3) the root is not forced COW.
         *
         * What is forced COW:
-        *    when we create snapshot during commiting the transaction,
+        *    when we create snapshot during committing the transaction,
         *    after we've finished coping src root, we must COW the shared
         *    block to ensure the metadata consistency.
         */
@@ -1531,7 +1531,7 @@ static inline int should_cow_block(struct btrfs_trans_handle *trans,
 
 /*
  * cows a single block, see __btrfs_cow_block for the real work.
- * This version of it has extra checks so that a block isn't cow'd more than
+ * This version of it has extra checks so that a block isn't COWed more than
  * once per transaction, as long as it hasn't been written yet
  */
 noinline int btrfs_cow_block(struct btrfs_trans_handle *trans,
@@ -2986,7 +2986,7 @@ again:
                btrfs_unlock_up_safe(p, level + 1);
 
                /*
-                * Since we can unwind eb's we want to do a real search every
+                * Since we can unwind ebs we want to do a real search every
                 * time.
                 */
                prev_cmp = -1;
index 84a6a5b3384a7be63ae6808527228a28c9f72674..65e7a9fa881fcc2811c5eb93616448c8e349046d 100644 (file)
@@ -186,7 +186,7 @@ static const int btrfs_csum_sizes[] = { 4 };
 /* four bytes for CRC32 */
 #define BTRFS_EMPTY_DIR_SIZE 0
 
-/* spefic to btrfs_map_block(), therefore not in include/linux/blk_types.h */
+/* specific to btrfs_map_block(), therefore not in include/linux/blk_types.h */
 #define REQ_GET_READ_MIRRORS   (1 << 30)
 
 #define BTRFS_FT_UNKNOWN       0
@@ -1221,7 +1221,7 @@ struct btrfs_space_info {
         * bytes_pinned does not reflect the bytes that will be pinned once the
         * delayed refs are flushed, so this counter is inc'ed every time we
         * call btrfs_free_extent so it is a realtime count of what will be
-        * freed once the transaction is committed.  It will be zero'ed every
+        * freed once the transaction is committed.  It will be zeroed every
         * time the transaction commits.
         */
        struct percpu_counter total_bytes_pinned;
@@ -2392,7 +2392,7 @@ static inline void btrfs_init_map_token (struct btrfs_map_token *token)
        token->kaddr = NULL;
 }
 
-/* some macros to generate set/get funcs for the struct fields.  This
+/* some macros to generate set/get functions for the struct fields.  This
  * assumes there is a lefoo_to_cpu for every type, so lets make a simple
  * one for u8:
  */
index c24b653c7343018a89931ef8344e0f71c2c1bf97..5fca9534a2712b0b4dec9e9b15a1e024f272bb2f 100644 (file)
@@ -188,7 +188,7 @@ struct btrfs_delayed_ref_root {
 
        /*
         * To make qgroup to skip given root.
-        * This is for snapshot, as btrfs_qgroup_inherit() will manully
+        * This is for snapshot, as btrfs_qgroup_inherit() will manually
         * modify counters for snapshot and its source, so we should skip
         * the snapshot in new_root/old_roots or it will get calculated twice
         */
index 26bcb487f95885295ad3e24d2a8063cbf6355351..0584b6c2df572924a747560c3cb0f903bc0ba99a 100644 (file)
@@ -441,7 +441,7 @@ leave:
 }
 
 /*
- * blocked until all flighting bios are finished.
+ * blocked until all in-flight bios operations are finished.
  */
 static void btrfs_rm_dev_replace_blocked(struct btrfs_fs_info *fs_info)
 {
index 263823f28ba4e5d27f12fb1b9fb1d5439c93191c..aacc707ef952cf8eaddbad80e6e9fab357db5c4f 100644 (file)
@@ -384,7 +384,7 @@ static int verify_parent_transid(struct extent_io_tree *io_tree,
        /*
         * Things reading via commit roots that don't have normal protection,
         * like send, can have a really old block in cache that may point at a
-        * block that has been free'd and re-allocated.  So don't clear uptodate
+        * block that has been freed and re-allocated.  So don't clear uptodate
         * if we find an eb that is under IO (dirty/writeback) because we could
         * end up reading in the stale data and then writing it back out and
         * making everybody very sad.
@@ -418,7 +418,7 @@ static int btrfs_check_super_csum(char *raw_disk_sb)
                /*
                 * The super_block structure does not span the whole
                 * BTRFS_SUPER_INFO_SIZE range, we expect that the unused space
-                * is filled with zeros and is included in the checkum.
+                * is filled with zeros and is included in the checksum.
                 */
                crc = btrfs_csum_data(raw_disk_sb + BTRFS_CSUM_SIZE,
                                crc, BTRFS_SUPER_INFO_SIZE - BTRFS_CSUM_SIZE);
@@ -600,7 +600,7 @@ static noinline int check_leaf(struct btrfs_root *root,
 
                /*
                 * Check to make sure that we don't point outside of the leaf,
-                * just incase all the items are consistent to eachother, but
+                * just in case all the items are consistent to each other, but
                 * all point outside of the leaf.
                 */
                if (btrfs_item_end_nr(leaf, slot) >
@@ -3017,7 +3017,7 @@ retry_root_backup:
        }
 
        /*
-        * Mount does not set all options immediatelly, we can do it now and do
+        * Mount does not set all options immediately, we can do it now and do
         * not have to wait for transaction commit
         */
        btrfs_apply_pending_changes(fs_info);
@@ -3245,7 +3245,7 @@ static void btrfs_end_buffer_write_sync(struct buffer_head *bh, int uptodate)
                btrfs_warn_rl_in_rcu(device->dev_root->fs_info,
                                "lost page write due to IO error on %s",
                                          rcu_str_deref(device->name));
-               /* note, we dont' set_buffer_write_io_error because we have
+               /* note, we don't set_buffer_write_io_error because we have
                 * our own ways of dealing with the IO errors
                 */
                clear_buffer_uptodate(bh);
index 0ddc996a40e106c49d0490a90cb7e7c690119b88..939a043eabfabf833e11a8e37910717e082920ac 100644 (file)
@@ -980,7 +980,7 @@ out_free:
  * event that tree block loses its owner tree's reference and do the
  * back refs conversion.
  *
- * When a tree block is COW'd through a tree, there are four cases:
+ * When a tree block is COWed through a tree, there are four cases:
  *
  * The reference count of the block is one and the tree is the block's
  * owner tree. Nothing to do in this case.
@@ -2595,7 +2595,7 @@ static noinline int __btrfs_run_delayed_refs(struct btrfs_trans_handle *trans,
                        }
 
                        /*
-                        * Need to drop our head ref lock and re-aqcuire the
+                        * Need to drop our head ref lock and re-acquire the
                         * delayed ref lock and then re-check to make sure
                         * nobody got added.
                         */
@@ -2747,7 +2747,7 @@ static inline u64 heads_to_leaves(struct btrfs_root *root, u64 heads)
 
        /*
         * We don't ever fill up leaves all the way so multiply by 2 just to be
-        * closer to what we're really going to want to ouse.
+        * closer to what we're really going to want to use.
         */
        return div_u64(num_bytes, BTRFS_LEAF_DATA_SIZE(root));
 }
@@ -2851,7 +2851,7 @@ static void delayed_ref_async_start(struct btrfs_work *work)
        }
 
        /*
-        * trans->sync means that when we call end_transaciton, we won't
+        * trans->sync means that when we call end_transaction, we won't
         * wait on delayed refs
         */
        trans->sync = true;
@@ -4243,7 +4243,7 @@ void btrfs_free_reserved_data_space_noquota(struct inode *inode, u64 start,
  * Called if we need to clear a data reservation for this inode
  * Normally in a error case.
  *
- * This one will handle the per-indoe data rsv map for accurate reserved
+ * This one will handle the per-inode data rsv map for accurate reserved
  * space framework.
  */
 void btrfs_free_reserved_data_space(struct inode *inode, u64 start, u64 len)
@@ -4911,7 +4911,7 @@ void btrfs_init_async_reclaim_work(struct work_struct *work)
  * @orig_bytes - the number of bytes we want
  * @flush - whether or not we can flush to make our reservation
  *
- * This will reserve orgi_bytes number of bytes from the space info associated
+ * This will reserve orig_bytes number of bytes from the space info associated
  * with the block_rsv.  If there is not enough space it will make an attempt to
  * flush out space to make room.  It will do this by flushing delalloc if
  * possible or committing the transaction.  If flush is 0 then no attempts to
@@ -5516,7 +5516,7 @@ void btrfs_orphan_release_metadata(struct inode *inode)
  * common file/directory operations, they change two fs/file trees
  * and root tree, the number of items that the qgroup reserves is
  * different with the free space reservation. So we can not use
- * the space reseravtion mechanism in start_transaction().
+ * the space reservation mechanism in start_transaction().
  */
 int btrfs_subvolume_reserve_metadata(struct btrfs_root *root,
                                     struct btrfs_block_rsv *rsv,
@@ -5565,7 +5565,7 @@ void btrfs_subvolume_release_metadata(struct btrfs_root *root,
 /**
  * drop_outstanding_extent - drop an outstanding extent
  * @inode: the inode we're dropping the extent for
- * @num_bytes: the number of bytes we're relaseing.
+ * @num_bytes: the number of bytes we're releasing.
  *
  * This is called when we are freeing up an outstanding extent, either called
  * after an error or after an extent is written.  This will return the number of
@@ -5591,7 +5591,7 @@ static unsigned drop_outstanding_extent(struct inode *inode, u64 num_bytes)
                drop_inode_space = 1;
 
        /*
-        * If we have more or the same amount of outsanding extents than we have
+        * If we have more or the same amount of outstanding extents than we have
         * reserved then we need to leave the reserved extents count alone.
         */
        if (BTRFS_I(inode)->outstanding_extents >=
@@ -5605,8 +5605,8 @@ static unsigned drop_outstanding_extent(struct inode *inode, u64 num_bytes)
 }
 
 /**
- * calc_csum_metadata_size - return the amount of metada space that must be
- *     reserved/free'd for the given bytes.
+ * calc_csum_metadata_size - return the amount of metadata space that must be
+ *     reserved/freed for the given bytes.
  * @inode: the inode we're manipulating
  * @num_bytes: the number of bytes in question
  * @reserve: 1 if we are reserving space, 0 if we are freeing space
@@ -5758,7 +5758,7 @@ out_fail:
 
                /*
                 * This is tricky, but first we need to figure out how much we
-                * free'd from any free-ers that occurred during this
+                * freed from any free-ers that occurred during this
                 * reservation, so we reset ->csum_bytes to the csum_bytes
                 * before we dropped our lock, and then call the free for the
                 * number of bytes that were freed while we were trying our
@@ -5780,7 +5780,7 @@ out_fail:
 
                /*
                 * Now reset ->csum_bytes to what it should be.  If bytes is
-                * more than to_free then we would have free'd more space had we
+                * more than to_free then we would have freed more space had we
                 * not had an artificially high ->csum_bytes, so we need to free
                 * the remainder.  If bytes is the same or less then we don't
                 * need to do anything, the other free-ers did the correct
@@ -7471,7 +7471,7 @@ loop:
                if (loop == LOOP_CACHING_NOWAIT) {
                        /*
                         * We want to skip the LOOP_CACHING_WAIT step if we
-                        * don't have any unached bgs and we've alrelady done a
+                        * don't have any uncached bgs and we've already done a
                         * full search through.
                         */
                        if (orig_have_caching_bg || !full_search)
@@ -7873,7 +7873,7 @@ int btrfs_alloc_logged_file_extent(struct btrfs_trans_handle *trans,
 
        /*
         * Mixed block groups will exclude before processing the log so we only
-        * need to do the exlude dance if this fs isn't mixed.
+        * need to do the exclude dance if this fs isn't mixed.
         */
        if (!btrfs_fs_incompat(root->fs_info, MIXED_GROUPS)) {
                ret = __exclude_logged_extent(root, ins->objectid, ins->offset);
@@ -9317,7 +9317,7 @@ u64 btrfs_account_ro_block_groups_free_space(struct btrfs_space_info *sinfo)
        u64 free_bytes = 0;
        int factor;
 
-       /* It's df, we don't care if it's racey */
+       /* It's df, we don't care if it's racy */
        if (list_empty(&sinfo->ro_bgs))
                return 0;
 
index c1139bcf8870953354411521697e0bc998d17c50..5fdf1fcb03c9ef8ec0a497cc6d5b6b72437aae5b 100644 (file)
@@ -4591,7 +4591,7 @@ static void btrfs_release_extent_buffer_page(struct extent_buffer *eb)
                if (mapped)
                        spin_unlock(&page->mapping->private_lock);
 
-               /* One for when we alloced the page */
+               /* One for when we allocated the page */
                put_page(page);
        } while (index != 0);
 }
@@ -5751,7 +5751,7 @@ int try_release_extent_buffer(struct page *page)
        struct extent_buffer *eb;
 
        /*
-        * We need to make sure noboody is attaching this page to an eb right
+        * We need to make sure nobody is attaching this page to an eb right
         * now.
         */
        spin_lock(&page->mapping->private_lock);
index 318b048eb25494ff019f7faf874d84b749bcd2bd..e0715fcfb11ee9ee3582510d037fa32a887616ea 100644 (file)
@@ -62,7 +62,7 @@ struct extent_map *alloc_extent_map(void)
 
 /**
  * free_extent_map - drop reference count of an extent_map
- * @em:                extent map being releasead
+ * @em:                extent map being released
  *
  * Drops the reference out on @em by one and free the structure
  * if the reference count hits zero.
index 8d7b5a45c00523f4ca7ee5d58810b9d571ad4148..50dac40d95613aa5f0bfd85f91573a8afaffc105 100644 (file)
@@ -2024,7 +2024,7 @@ int btrfs_sync_file(struct file *file, loff_t start, loff_t end, int datasync)
             BTRFS_I(inode)->last_trans
             <= root->fs_info->last_trans_committed)) {
                /*
-                * We'v had everything committed since the last time we were
+                * We've had everything committed since the last time we were
                 * modified so clear this flag in case it was set for whatever
                 * reason, it's no longer relevant.
                 */
@@ -2372,7 +2372,7 @@ static int btrfs_punch_hole(struct inode *inode, loff_t offset, loff_t len)
 
        /* Check the aligned pages after the first unaligned page,
         * if offset != orig_start, which means the first unaligned page
-        * including serveral following pages are already in holes,
+        * including several following pages are already in holes,
         * the extra check can be skipped */
        if (offset == orig_start) {
                /* after truncate page, check hole again */
index 5e6062c26129f5d5f5a9362cc36fa4608062ebd9..c6dc1183f54249c3ee5681fcec818fc9194bc52b 100644 (file)
@@ -1983,7 +1983,7 @@ static bool use_bitmap(struct btrfs_free_space_ctl *ctl,
                /*
                 * If this block group has some small extents we don't want to
                 * use up all of our free slots in the cache with them, we want
-                * to reserve them to larger extents, however if we have plent
+                * to reserve them to larger extents, however if we have plenty
                 * of cache left then go ahead an dadd them, no sense in adding
                 * the overhead of a bitmap if we don't have to.
                 */
index 33178c490ace0c55418d5ab40415594e1a91bb0c..3af651c2bbc7e42bc153bbc524a8f889a76acb95 100644 (file)
@@ -123,7 +123,7 @@ int btrfs_return_cluster_to_free_space(
 int btrfs_trim_block_group(struct btrfs_block_group_cache *block_group,
                           u64 *trimmed, u64 start, u64 end, u64 minlen);
 
-/* Support functions for runnint our sanity tests */
+/* Support functions for running our sanity tests */
 #ifdef CONFIG_BTRFS_FS_RUN_SANITY_TESTS
 int test_add_free_space_entry(struct btrfs_block_group_cache *cache,
                              u64 offset, u64 bytes, bool bitmap);
index 1a4bd193962cc03ced7c77cb493deba20fc68ea5..2027bbd4b05e0b1c81e4a748d643f351c8fa9c58 100644 (file)
@@ -455,7 +455,7 @@ again:
 
        /*
         * skip compression for a small file range(<=blocksize) that
-        * isn't an inline extent, since it dosen't save disk space at all.
+        * isn't an inline extent, since it doesn't save disk space at all.
         */
        if (total_compressed <= blocksize &&
           (start > 0 || end + 1 < BTRFS_I(inode)->disk_i_size))
@@ -3705,7 +3705,7 @@ cache_index:
         * and doesn't have an inode ref with the name "bar" anymore.
         *
         * Setting last_unlink_trans to last_trans is a pessimistic approach,
-        * but it guarantees correctness at the expense of ocassional full
+        * but it guarantees correctness at the expense of occasional full
         * transaction commits on fsync if our inode is a directory, or if our
         * inode is not a directory, logging its parent unnecessarily.
         */
@@ -4961,7 +4961,7 @@ static int btrfs_setsize(struct inode *inode, struct iattr *attr)
                 * be instantly completed which will give us extents that need
                 * to be truncated.  If we fail to get an orphan inode down we
                 * could have left over extents that were never meant to live,
-                * so we need to garuntee from this point on that everything
+                * so we need to guarantee from this point on that everything
                 * will be consistent.
                 */
                ret = btrfs_orphan_add(trans, inode);
@@ -5231,7 +5231,7 @@ void btrfs_evict_inode(struct inode *inode)
                }
 
                /*
-                * We can't just steal from the global reserve, we need tomake
+                * We can't just steal from the global reserve, we need to make
                 * sure there is room to do it, if not we need to commit and try
                 * again.
                 */
@@ -7407,7 +7407,7 @@ static int lock_extent_direct(struct inode *inode, u64 lockstart, u64 lockend,
                                 cached_state);
                /*
                 * We're concerned with the entire range that we're going to be
-                * doing DIO to, so we need to make sure theres no ordered
+                * doing DIO to, so we need to make sure there's no ordered
                 * extents in this range.
                 */
                ordered = btrfs_lookup_ordered_range(inode, lockstart,
@@ -7569,7 +7569,7 @@ static int btrfs_get_blocks_direct(struct inode *inode, sector_t iblock,
        if (current->journal_info) {
                /*
                 * Need to pull our outstanding extents and set journal_info to NULL so
-                * that anything that needs to check if there's a transction doesn't get
+                * that anything that needs to check if there's a transaction doesn't get
                 * confused.
                 */
                dio_data = current->journal_info;
@@ -7602,7 +7602,7 @@ static int btrfs_get_blocks_direct(struct inode *inode, sector_t iblock,
         * decompress it, so there will be buffering required no matter what we
         * do, so go ahead and fallback to buffered.
         *
-        * We return -ENOTBLK because thats what makes DIO go ahead and go back
+        * We return -ENOTBLK because that's what makes DIO go ahead and go back
         * to buffered IO.  Don't blame me, this is the price we pay for using
         * the generic code.
         */
@@ -9018,7 +9018,7 @@ static int btrfs_truncate(struct inode *inode)
                return ret;
 
        /*
-        * Yes ladies and gentelment, this is indeed ugly.  The fact is we have
+        * Yes ladies and gentlemen, this is indeed ugly.  The fact is we have
         * 3 things going on here
         *
         * 1) We need to reserve space for our orphan item and the space to
@@ -9032,15 +9032,15 @@ static int btrfs_truncate(struct inode *inode)
         * space reserved in case it uses space during the truncate (thank you
         * very much snapshotting).
         *
-        * And we need these to all be seperate.  The fact is we can use alot of
+        * And we need these to all be separate.  The fact is we can use a lot of
         * space doing the truncate, and we have no earthly idea how much space
-        * we will use, so we need the truncate reservation to be seperate so it
+        * we will use, so we need the truncate reservation to be separate so it
         * doesn't end up using space reserved for updating the inode or
         * removing the orphan item.  We also need to be able to stop the
         * transaction and start a new one, which means we need to be able to
         * update the inode several times, and we have no idea of knowing how
         * many times that will be, so we can't just reserve 1 item for the
-        * entirety of the opration, so that has to be done seperately as well.
+        * entirety of the operation, so that has to be done separately as well.
         * Then there is the orphan item, which does indeed need to be held on
         * to for the whole operation, and we need nobody to touch this reserved
         * space except the orphan code.
index 72f48252a55dc552930a28ec74aef6a6b40f2eee..972cd0b00b219f99cce301d1079bf497ce91cbf3 100644 (file)
@@ -296,7 +296,7 @@ static int btrfs_ioctl_setflags(struct file *file, void __user *arg)
                }
        } else {
                /*
-                * Revert back under same assuptions as above
+                * Revert back under same assumptions as above
                 */
                if (S_ISREG(mode)) {
                        if (inode->i_size == 0)
@@ -461,7 +461,7 @@ static noinline int create_subvol(struct inode *dir,
 
        /*
         * Don't create subvolume whose level is not zero. Or qgroup will be
-        * screwed up since it assume subvolme qgroup's level to be 0.
+        * screwed up since it assumes subvolume qgroup's level to be 0.
         */
        if (btrfs_qgroup_level(objectid))
                return -ENOSPC;
@@ -771,7 +771,7 @@ free_pending:
  *     a. be owner of dir, or
  *     b. be owner of victim, or
  *     c. have CAP_FOWNER capability
- *  6. If the victim is append-only or immutable we can't do antyhing with
+ *  6. If the victim is append-only or immutable we can't do anything with
  *     links pointing to it.
  *  7. If we were asked to remove a directory and victim isn't one - ENOTDIR.
  *  8. If we were asked to remove a non-directory and victim isn't one - EISDIR.
@@ -4585,7 +4585,7 @@ again:
        }
 
        /*
-        * mut. excl. ops lock is locked.  Three possibilites:
+        * mut. excl. ops lock is locked.  Three possibilities:
         *   (1) some other op is running
         *   (2) balance is running
         *   (3) balance is paused -- special case (think resume)
@@ -5490,7 +5490,7 @@ long btrfs_ioctl(struct file *file, unsigned int
                ret = btrfs_sync_fs(file_inode(file)->i_sb, 1);
                /*
                 * The transaction thread may want to do more work,
-                * namely it pokes the cleaner ktread that will start
+                * namely it pokes the cleaner kthread that will start
                 * processing uncleaned subvols.
                 */
                wake_up_process(root->fs_info->transaction_kthread);
index 23c96059cef26a6292847a051b893f254cc472b3..ae068bbddc0d68c62caaf1cff6ed411b35596aac 100644 (file)
@@ -58,7 +58,7 @@ struct btrfs_ordered_sum {
 
 #define BTRFS_ORDERED_COMPRESSED 3 /* writing a zlib compressed extent */
 
-#define BTRFS_ORDERED_PREALLOC 4 /* set when writing to prealloced extent */
+#define BTRFS_ORDERED_PREALLOC 4 /* set when writing to preallocated extent */
 
 #define BTRFS_ORDERED_DIRECT 5 /* set when we're doing DIO with this extent */
 
index 34af959b4e0f9f26d619fb0877ee317762e0abad..9d4c05b14f6e742c5dc6d4d990ef8de269496865 100644 (file)
@@ -85,7 +85,7 @@ struct btrfs_qgroup {
 
        /*
         * temp variables for accounting operations
-        * Refer to qgroup_shared_accouting() for details.
+        * Refer to qgroup_shared_accounting() for details.
         */
        u64 old_refcnt;
        u64 new_refcnt;
@@ -499,7 +499,7 @@ void btrfs_free_qgroup_config(struct btrfs_fs_info *fs_info)
        }
        /*
         * we call btrfs_free_qgroup_config() when umounting
-        * filesystem and disabling quota, so we set qgroup_ulit
+        * filesystem and disabling quota, so we set qgroup_ulist
         * to be null here to avoid double free.
         */
        ulist_free(fs_info->qgroup_ulist);
@@ -1036,7 +1036,7 @@ static void qgroup_dirty(struct btrfs_fs_info *fs_info,
 
 /*
  * The easy accounting, if we are adding/removing the only ref for an extent
- * then this qgroup and all of the parent qgroups get their refrence and
+ * then this qgroup and all of the parent qgroups get their reference and
  * exclusive counts adjusted.
  *
  * Caller should hold fs_info->qgroup_lock.
@@ -1436,7 +1436,7 @@ int btrfs_qgroup_prepare_account_extents(struct btrfs_trans_handle *trans,
 
        /*
         * No need to do lock, since this function will only be called in
-        * btrfs_commmit_transaction().
+        * btrfs_commit_transaction().
         */
        node = rb_first(&delayed_refs->dirty_extent_root);
        while (node) {
@@ -1557,7 +1557,7 @@ static int qgroup_update_refcnt(struct btrfs_fs_info *fs_info,
  * A:  cur_old_roots < nr_old_roots    (not exclusive before)
  * !A: cur_old_roots == nr_old_roots   (possible exclusive before)
  * B:  cur_new_roots < nr_new_roots    (not exclusive now)
- * !B: cur_new_roots == nr_new_roots   (possible exclsuive now)
+ * !B: cur_new_roots == nr_new_roots   (possible exclusive now)
  *
  * Results:
  * +: Possible sharing -> exclusive    -: Possible exclusive -> sharing
@@ -1851,7 +1851,7 @@ out:
 }
 
 /*
- * Copy the acounting information between qgroups. This is necessary
+ * Copy the accounting information between qgroups. This is necessary
  * when a snapshot or a subvolume is created. Throwing an error will
  * cause a transaction abort so we take extra care here to only error
  * when a readonly fs is a reasonable outcome.
@@ -2340,7 +2340,7 @@ out:
        mutex_unlock(&fs_info->qgroup_rescan_lock);
 
        /*
-        * only update status, since the previous part has alreay updated the
+        * only update status, since the previous part has already updated the
         * qgroup info.
         */
        trans = btrfs_start_transaction(fs_info->quota_root, 1);
@@ -2670,7 +2670,7 @@ void btrfs_qgroup_free_meta(struct btrfs_root *root, int num_bytes)
 }
 
 /*
- * Check qgroup reserved space leaking, normally at destory inode
+ * Check qgroup reserved space leaking, normally at destroy inode
  * time
  */
 void btrfs_qgroup_check_reserved_leak(struct inode *inode)
index 0b7792e02dd5a65f284f6f213f61822b3b34e6cf..f8b6d411a034b46a565f7df4066e0f6ecee8f189 100644 (file)
@@ -576,7 +576,7 @@ static int rbio_can_merge(struct btrfs_raid_bio *last,
         * we can't merge with cached rbios, since the
         * idea is that when we merge the destination
         * rbio is going to run our IO for us.  We can
-        * steal from cached rbio's though, other functions
+        * steal from cached rbios though, other functions
         * handle that.
         */
        if (test_bit(RBIO_CACHE_BIT, &last->flags) ||
@@ -2368,7 +2368,7 @@ static noinline void finish_parity_scrub(struct btrfs_raid_bio *rbio,
                        run_xor(pointers + 1, nr_data - 1, PAGE_SIZE);
                }
 
-               /* Check scrubbing pairty and repair it */
+               /* Check scrubbing parity and repair it */
                p = rbio_stripe_page(rbio, rbio->scrubp, pagenr);
                parity = kmap(p);
                if (memcmp(parity, pointers[rbio->scrubp], PAGE_SIZE))
@@ -2493,7 +2493,7 @@ static void validate_rbio_for_parity_scrub(struct btrfs_raid_bio *rbio)
                /*
                 * Here means we got one corrupted data stripe and one
                 * corrupted parity on RAID6, if the corrupted parity
-                * is scrubbing parity, luckly, use the other one to repair
+                * is scrubbing parity, luckily, use the other one to repair
                 * the data, or we can not repair the data stripe.
                 */
                if (failp != rbio->scrubp)
index bd5ea1a8a9f1c4b926227c902f4416a02b92d223..852be779a8348d1159b33257e77b3e51c6487bef 100644 (file)
@@ -668,8 +668,8 @@ int find_inline_backref(struct extent_buffer *leaf, int slot,
  * roots of b-trees that reference the tree block.
  *
  * the basic idea of this function is check backrefs of a given block
- * to find upper level blocks that refernece the block, and then check
- * bakcrefs of these upper level blocks recursively. the recursion stop
+ * to find upper level blocks that reference the block, and then check
+ * backrefs of these upper level blocks recursively. the recursion stop
  * when tree root is reached or backrefs for the block is cached.
  *
  * NOTE: if we find backrefs for a block are cached, we know backrefs
@@ -1160,7 +1160,7 @@ out:
                        if (!RB_EMPTY_NODE(&upper->rb_node))
                                continue;
 
-                       /* Add this guy's upper edges to the list to proces */
+                       /* Add this guy's upper edges to the list to process */
                        list_for_each_entry(edge, &upper->upper, list[LOWER])
                                list_add_tail(&edge->list[UPPER], &list);
                        if (list_empty(&upper->upper))
@@ -2396,7 +2396,7 @@ again:
                }
 
                /*
-                * we keep the old last snapshod transid in rtranid when we
+                * we keep the old last snapshot transid in rtranid when we
                 * created the relocation tree.
                 */
                last_snap = btrfs_root_rtransid(&reloc_root->root_item);
@@ -2616,7 +2616,7 @@ static int reserve_metadata_space(struct btrfs_trans_handle *trans,
                         * only one thread can access block_rsv at this point,
                         * so we don't need hold lock to protect block_rsv.
                         * we expand more reservation size here to allow enough
-                        * space for relocation and we will return eailer in
+                        * space for relocation and we will return earlier in
                         * enospc case.
                         */
                        rc->block_rsv->size = tmp + rc->extent_root->nodesize *
@@ -4591,7 +4591,7 @@ int btrfs_reloc_cow_block(struct btrfs_trans_handle *trans,
 
 /*
  * called before creating snapshot. it calculates metadata reservation
- * requried for relocating tree blocks in the snapshot
+ * required for relocating tree blocks in the snapshot
  */
 void btrfs_reloc_pre_snapshot(struct btrfs_pending_snapshot *pending,
                              u64 *bytes_to_reserve)
index 9fcd6dfc3266f934dfa7d86550c88ff1d49b22a4..5ddf14e1b2d2e97e165c1056518d5e54ec3a5235 100644 (file)
@@ -71,9 +71,9 @@ static void btrfs_read_root_item(struct extent_buffer *eb, int slot,
  * search_key: the key to search
  * path: the path we search
  * root_item: the root item of the tree we look for
- * root_key: the reak key of the tree we look for
+ * root_key: the root key of the tree we look for
  *
- * If ->offset of 'seach_key' is -1ULL, it means we are not sure the offset
+ * If ->offset of 'search_key' is -1ULL, it means we are not sure the offset
  * of the search key, just lookup the root with the highest offset for a
  * given objectid.
  *
index 841dae874a21a91271d2e12729b7b30f90b96464..6838b2ca3cab0f8e9e2609d56cbc2a453d1746fc 100644 (file)
@@ -1044,7 +1044,7 @@ nodatasum_case:
 
                /*
                 * !is_metadata and !have_csum, this means that the data
-                * might not be COW'ed, that it might be modified
+                * might not be COWed, that it might be modified
                 * concurrently. The general strategy to work on the
                 * commit root does not help in the case when COW is not
                 * used.
@@ -1125,7 +1125,7 @@ nodatasum_case:
         * the 2nd page of mirror #1 faces I/O errors, and the 2nd page
         * of mirror #2 is readable but the final checksum test fails,
         * then the 2nd page of mirror #3 could be tried, whether now
-        * the final checksum succeedes. But this would be a rare
+        * the final checksum succeeds. But this would be a rare
         * exception and is therefore not implemented. At least it is
         * avoided that the good copy is overwritten.
         * A more useful improvement would be to pick the sectors
index 8d358c547c59fd8d010d27cf1180a04d51be5fe5..e9710f461008373c46e967fe78bac7d12c82f1d8 100644 (file)
@@ -1831,7 +1831,7 @@ static int will_overwrite_ref(struct send_ctx *sctx, u64 dir, u64 dir_gen,
 
        /*
         * If we have a parent root we need to verify that the parent dir was
-        * not delted and then re-created, if it was then we have no overwrite
+        * not deleted and then re-created, if it was then we have no overwrite
         * and we can just unlink this entry.
         */
        if (sctx->parent_root) {
@@ -4192,9 +4192,9 @@ static int __process_new_xattr(int num, struct btrfs_key *di_key,
                return -ENOMEM;
 
        /*
-        * This hack is needed because empty acl's are stored as zero byte
+        * This hack is needed because empty acls are stored as zero byte
         * data in xattrs. Problem with that is, that receiving these zero byte
-        * acl's will fail later. To fix this, we send a dummy acl list that
+        * acls will fail later. To fix this, we send a dummy acl list that
         * only contains the version number and no entries.
         */
        if (!strncmp(name, XATTR_NAME_POSIX_ACL_ACCESS, name_len) ||
index e05619f241be3b2408490ef8c25d030798737755..875c757e73e2a8eacae1d9817bd83d56d32b21cf 100644 (file)
@@ -36,7 +36,7 @@ static inline void put_unaligned_le8(u8 val, void *p)
  *
  * The end result is that anyone who #includes ctree.h gets a
  * declaration for the btrfs_set_foo functions and btrfs_foo functions,
- * which are wappers of btrfs_set_token_#bits functions and
+ * which are wrappers of btrfs_set_token_#bits functions and
  * btrfs_get_token_#bits functions, which are defined in this file.
  *
  * These setget functions do all the extent_buffer related mapping
index 00b8f37cc306df540989a9a888f0fb6cf0eb8a0e..01ef1865db63fe0024e80df4a57b16b20e0584da 100644 (file)
@@ -121,7 +121,7 @@ static void btrfs_handle_error(struct btrfs_fs_info *fs_info)
                 * Note that a running device replace operation is not
                 * canceled here although there is no way to update
                 * the progress. It would add the risk of a deadlock,
-                * therefore the canceling is ommited. The only penalty
+                * therefore the canceling is omitted. The only penalty
                 * is that some I/O remains active until the procedure
                 * completes. The next time when the filesystem is
                 * mounted writeable again, the device replace
@@ -1881,7 +1881,7 @@ static int btrfs_calc_avail_data_space(struct btrfs_root *root, u64 *free_bytes)
        int ret;
 
        /*
-        * We aren't under the device list lock, so this is racey-ish, but good
+        * We aren't under the device list lock, so this is racy-ish, but good
         * enough for our purposes.
         */
        nr_devices = fs_info->fs_devices->open_devices;
@@ -1900,7 +1900,7 @@ static int btrfs_calc_avail_data_space(struct btrfs_root *root, u64 *free_bytes)
        if (!devices_info)
                return -ENOMEM;
 
-       /* calc min stripe number for data space alloction */
+       /* calc min stripe number for data space allocation */
        type = btrfs_get_alloc_profile(root, 1);
        if (type & BTRFS_BLOCK_GROUP_RAID0) {
                min_stripes = 2;
@@ -1936,7 +1936,7 @@ static int btrfs_calc_avail_data_space(struct btrfs_root *root, u64 *free_bytes)
                avail_space *= BTRFS_STRIPE_LEN;
 
                /*
-                * In order to avoid overwritting the superblock on the drive,
+                * In order to avoid overwriting the superblock on the drive,
                 * btrfs starts at an offset of at least 1MB when doing chunk
                 * allocation.
                 */
index c190d2a520d1ebcb87bbec3f310a70ffb5a6d817..55724607f79b8eea00090352d7038885001f7843 100644 (file)
@@ -176,7 +176,7 @@ static int test_find_delalloc(void)
        locked_page = find_lock_page(inode->i_mapping, test_start >>
                                     PAGE_SHIFT);
        if (!locked_page) {
-               test_msg("Could'nt find the locked page\n");
+               test_msg("Couldn't find the locked page\n");
                goto out_bits;
        }
        start = test_start;
index 514247515312adc7dbf77f4d5fa154c76a7bcda0..0eeb8f3d6b674ba8f67fe54877afde605999fcf3 100644 (file)
@@ -25,7 +25,7 @@
 #define BITS_PER_BITMAP                (PAGE_SIZE * 8)
 
 /*
- * This test just does basic sanity checking, making sure we can add an exten
+ * This test just does basic sanity checking, making sure we can add an extent
  * entry and remove space from either end and the middle, and make sure we can
  * remove space that covers adjacent extent entries.
  */
@@ -396,8 +396,9 @@ static int check_cache_empty(struct btrfs_block_group_cache *cache)
  * wasn't optimal as they could be spread all over the block group while under
  * concurrency (extra overhead and fragmentation).
  *
- * This stealing approach is benefical, since we always prefer to allocate from
- * extent entries, both for clustered and non-clustered allocation requests.
+ * This stealing approach is beneficial, since we always prefer to allocate
+ * from extent entries, both for clustered and non-clustered allocation
+ * requests.
  */
 static int
 test_steal_space_from_bitmap_to_extent(struct btrfs_block_group_cache *cache)
index 863a6a3af1f8869c8b4392dbb5af677ed9bfa3fc..8a25fe8b7c452e78d823da897068748ae280de32 100644 (file)
@@ -264,7 +264,7 @@ static noinline int test_btrfs_get_extent(void)
 
        /*
         * We will just free a dummy node if it's ref count is 2 so we need an
-        * extra ref so our searches don't accidently release our page.
+        * extra ref so our searches don't accidentally release our page.
         */
        extent_buffer_get(root->node);
        btrfs_set_header_nritems(root->node, 0);
index 8ea5d34bc5a20ce6f6c73d9f6ab4a012a9990c1c..8aa4ded31326c95e8b19b4ced8f9c9fab1c4c8de 100644 (file)
@@ -234,7 +234,7 @@ static int test_no_shared_qgroup(struct btrfs_root *root)
        }
 
        /*
-        * Since the test trans doesn't havee the complicated delayed refs,
+        * Since the test trans doesn't have the complicated delayed refs,
         * we can only call btrfs_qgroup_account_extent() directly to test
         * quota.
         */
index 72be51f7ca2fbf92507f2e2f36344a6b0a45f1a8..9fe0ec2bf0fe7fefda878bb9e885071f0d8e3f7e 100644 (file)
@@ -144,7 +144,7 @@ struct btrfs_pending_snapshot {
        /* block reservation for the operation */
        struct btrfs_block_rsv block_rsv;
        u64 qgroup_reserved;
-       /* extra metadata reseration for relocation */
+       /* extra metadata reservation for relocation */
        int error;
        bool readonly;
        struct list_head list;
index a111e275ab9ee4b5eabcce49238c8bb6d64d022b..f3a8939d63fba15a79db1672047d384410a1e136 100644 (file)
@@ -2330,7 +2330,7 @@ static int replay_one_buffer(struct btrfs_root *log, struct extent_buffer *eb,
                                break;
 
                        /* for regular files, make sure corresponding
-                        * orhpan item exist. extents past the new EOF
+                        * orphan item exist. extents past the new EOF
                         * will be truncated later by orphan cleanup.
                         */
                        if (S_ISREG(mode)) {
@@ -4937,7 +4937,7 @@ out_unlock:
  * the actual unlink operation, so if we do this check before a concurrent task
  * sets last_unlink_trans it means we've logged a consistent version/state of
  * all the inode items, otherwise we are not sure and must do a transaction
- * commit (the concurrent task migth have only updated last_unlink_trans before
+ * commit (the concurrent task might have only updated last_unlink_trans before
  * we logged the inode or it might have also done the unlink).
  */
 static bool btrfs_must_commit_transaction(struct btrfs_trans_handle *trans,
@@ -4996,7 +4996,7 @@ static noinline int check_parent_dirs_for_sync(struct btrfs_trans_handle *trans,
        while (1) {
                /*
                 * If we are logging a directory then we start with our inode,
-                * not our parents inode, so we need to skipp setting the
+                * not our parent's inode, so we need to skip setting the
                 * logged_trans so that further down in the log code we don't
                 * think this inode has already been logged.
                 */
@@ -5375,7 +5375,7 @@ static int btrfs_log_inode_parent(struct btrfs_trans_handle *trans,
                log_dentries = true;
 
        /*
-        * On unlink we must make sure all our current and old parent directores
+        * On unlink we must make sure all our current and old parent directory
         * inodes are fully logged. This is to prevent leaving dangling
         * directory index entries in directories that were our parents but are
         * not anymore. Not doing this results in old parent directory being
index 91feb2bdefeeb1f8849a3ae6e88fac5ec0e9701c..b1434bb57e36e323a6cd30f08011f26410a99570 100644 (file)
@@ -28,7 +28,7 @@
  * }
  * ulist_free(ulist);
  *
- * This assumes the graph nodes are adressable by u64. This stems from the
+ * This assumes the graph nodes are addressable by u64. This stems from the
  * usage for tree enumeration in btrfs, where the logical addresses are
  * 64 bit.
  *
index bd0f45fb38c462bf932462cfda57bcc2baac63cc..8fe7fff5ffb735538090f81fa7350be34a538fc1 100644 (file)
@@ -2165,7 +2165,7 @@ static int btrfs_prepare_sprout(struct btrfs_root *root)
 }
 
 /*
- * strore the expected generation for seed devices in device items.
+ * Store the expected generation for seed devices in device items.
  */
 static int btrfs_finish_sprout(struct btrfs_trans_handle *trans,
                               struct btrfs_root *root)
@@ -3362,7 +3362,7 @@ static int should_balance_chunk(struct btrfs_root *root,
        } else if ((bargs->flags & BTRFS_BALANCE_ARGS_LIMIT_RANGE)) {
                /*
                 * Same logic as the 'limit' filter; the minimum cannot be
-                * determined here because we do not have the global informatoin
+                * determined here because we do not have the global information
                 * about the count of all chunks that satisfy the filters.
                 */
                if (bargs->limit_max == 0)
@@ -6032,7 +6032,7 @@ static void bbio_error(struct btrfs_bio *bbio, struct bio *bio, u64 logical)
 {
        atomic_inc(&bbio->error);
        if (atomic_dec_and_test(&bbio->stripes_pending)) {
-               /* Shoud be the original bio. */
+               /* Should be the original bio. */
                WARN_ON(bio != bbio->orig_bio);
 
                btrfs_io_bio(bio)->mirror_num = bbio->mirror_num;
@@ -6516,7 +6516,7 @@ int btrfs_read_sys_array(struct btrfs_root *root)
        set_extent_buffer_uptodate(sb);
        btrfs_set_buffer_lockdep_class(root->root_key.objectid, sb, 0);
        /*
-        * The sb extent buffer is artifical and just used to read the system array.
+        * The sb extent buffer is artificial and just used to read the system array.
         * set_extent_buffer_uptodate() call does not properly mark all it's
         * pages up-to-date when the page is larger: extent does not cover the
         * whole page and consequently check_page_uptodate does not find all